Программы помогают ловить пропаганду
Вид со ступенек Европарламента. Брюссель, Бельгия. 13 июня 2022 г. (© schwingen.net)

Программы помогают ловить пропаганду

Европейская служба внешних связей обнаружила более 17 000 случаев прокремлёвских фейков с 2015 года. Как распознать приемы пропаганды? Какие онлайн-сервисы позволяют проверить нейтральность текста? Об этом материал «Детектор лжи» просветительского проекта «Теплица социальных технологий».

Профильная служба ЕС обнаружила в этом году 1500 случаев прокремлевской дезинформации, изготовленной специально для жителей Европы. Половина фейков — антиукраинские сюжеты, много внимания уделяется прославлению российской армии, критике западной политики и нападкам на западных лидеров.

В конце апреля Еврокомиссия начала расследование против Facebook и Instagram по подозрению в том, что глобальные платформы делают недостаточно для борьбы с дезинформацией. Сама ЕС активно противодействует российскому вранью с 2015 года. С тех пор выявили более 17 000 случаев прокремлевских фейков и опровергли их на десятке языков, в том числе на русском.

По данным службы внешних связей ЕС, за последнее время можно выделить 3 крупные кампании по дезинформации, связанные с Россией и действующие в Евросоюзе. Это компания «Doppleganger», создающая сайты-двойники авторитетных СМИ и распространяющая через них информацию, выгодную Кремлю; сеть сайтов Pravda, продвигающая в 19 странах ЕС мысли, что западные элиты стремятся к третьей мировой войне против России; и недавно раскрытая кампания по дезинформации False Façade — сеть, включающая как минимум 23 сайта со ссылками на Россию, выдающими себя за западные СМИ.

Детектор лжи

Интерес к изучению пропаганды вырос после начала полномасштабного вторжения России в Украину. Исследователи и противники войны пытались понять, почему она работает, хотя в открытом доступе есть доказательства ее неправоты, и как ей противостоять. Качественную пропаганду довольно сложно заметить, и в информационной войне почти каждый стал ее жертвой. Кира Федорова объясняет на страницах «‎Теплицы», могут ли технологии помочь с пониманием того, что автор текста вами манипулирует.

Пропагандистские приемы

Чаще всего авторы пропагандистских текстов используют такие приемы, как искажение информации или недоговаривание, давление на эмоции, чрезмерное упрощение, деление на своих и чужих, конспирология, логические уловки*. Эти методы эффективны, поскольку воздействуют на инстинкты: снижают неопределенность, чувство ответственности и канализируют недовольство ситуацией. При беглом чтении тезисы таких текстов кажутся вполне обоснованными, к тому же, люди считают, что пропаганде подвержены все остальные, но не они сами.


image description
image description

Например, в фильме «‎Иноагенты» интервью с Леонидом Гозманом перемежается с кадрами очередей и пустых магазинов из 90-х. Закадровый голос рассказывает про связь Гозмана, признанного иноагентом, с РАО ЕЭС. У большинства россиян плохие воспоминания о том времени, и в тяжелой ситуации они обвиняют олигархов, Анатолия Чубайса, в том числе. Таким образом, проводится параллель между разбогатевшими тогда людьми и современными иноагентами, которые якобы ненавидят свою страну и не разделяют боль ее граждан.

Чтобы автоматически выявлять пропаганду в тексте, надо сначала определиться, что считать пропагандой. Здесь у исследователей нет консенсуса: им нужно определять, является ли текст ангажированным или просто рассказывает о конфликте, что считать объективной подачей, будет ли текст пропагандистским, если он цитирует цитаты пропагандистов и тд. А в случае с комментариями — разжигает ли владелец аккаунта спор намеренно или просто высказывает своё мнение. А разбить пропагандистские приемы по категориям и показать модели, как вычленять их из текста, еще сложнее. Поэтому мало размеченных, то есть классифицированных и аннотированных данных, на которых можно обучить модель. Для русского языка их еще меньше. Один из немногих датасетов с выделенными манипулятивными приемами — подготовленный для семинаров по семантическому анализу SemEval.

*Логические уловки, или ошибки (англ. logical fallacies) — некорректные умозаключения, которые люди иногда допускают в процессе мышления, а пропаганда использует намеренно. Есть известный список логических заблуждений в оригинале на английском, а здесь на русском и украинском.

Инструменты

Программы, которые обнаруживают пропагандистские обороты в тексте, как правило, распознают одну или несколько манипулятивных техник: использование эмоционально окрашенных слов, переход на личности и тп. Наиболее популярный способ выявления «‎нечестной игры» — детекция аккаунтов троллей, распространяющих проплаченную информацию.

Но фейки необязательно означают, что текст пропагандистский. «‎Хорошая» пропаганда не договаривает, утрирует, выдергивает из контекста, но далеко не всегда выдает ложь за правду. Например, прогосударственные СМИ или боты обвиняют неугодного человека в чем-то, вызывающем общественное осуждение, например, распутстве. Как правило, эти утверждения не имеют ничего общего с реальностью, но пробуждают негативную реакцию и активные дискуссии среди сторонников и противников версии. Пока жертва доказывает свою невиновность, неприятные ассоциации всплывают каждый раз при упоминании имени этого человека. Этот прием называется «‎метод гнилой селедки».

Из-за ореола манипуляций на выборах 2016 года в США стали набирать популярность инструменты для разоблачения фейков. Особенно высокая активность по выявлению ненастоящих новостей и аккаунтов развернулась в X (Twitter). Среди соответствующих инструментов — Botometer X, который показывает вероятность того, что пользователь — бот, Bot Sentinel, который помечает аккаунты как проблемные, достоверные и удовлетворительные.

Для Telegram тоже есть такой инструмент: Бот-антипровокатор. Он распознает в чатах провоцирующие и агрессивные комментарии, отмечает их для модераторов и удаляет. Чтобы получить к нему доступ и установить, нужно написать создателям на почту su**********@pr****.me.

Если вы хотите проверить нейтральность какого-то одного текста, то можно скормить его онлайн-сервисам, таким как ClaimBuster или Factiverse. Они допускают погрешности, но подчеркивают речевые приемы, которые могут формировать мнение читателя под нужным углом. ClaimBuster выделяет в тексте утверждения, которые выглядят голословно и требуют проверки, у него также есть API. Например, в материале РИА Новостей про интервью Маргариты Симоньян ClaimBuster выделил такие тезисы, как «‎Америка привыкла в силу своей истории зарабатывать на войнах огромные деньги: зарабатывают определенные круги, определенные элиты, определенные финансовые воротилы, да и вся страна тоже», «Россия не захочет «демократию», как на Украине‎» и др.

Есть продукты для анализа общей картины. Full Fact дает доступ по запросу к своим инструментам автоматического фактчекинга, Google Fact Check Tools собирает материалы разных фактчекинговых СМИ. Perspective, построенный на моделях машинного обучения, определяет токсичность и оскорбительность комментариев по шкале от 0 до 100. У него есть API для разработчиков и авторов контента. Hamilton 2.0 может пригодиться для сводной аналитики, он показывает сводку активности и самых популярных тем в пропагандистских каналах.

Исследование пропаганды

Помимо прикладных инструментов, существуют исследовательские проекты, которые занимаются семантическим анализом пропагандистских текстов. Среди таких — Propaganda Analysis Project, Edit Wars, «‎Оплот», Ground News и др. Ground News агрегирует новости и разбивает их источники по надежности, владельцу и политическому спектру. Эти разбивки организация составляет вручную. «‎Оплот» — сообщество русскоговорящих специалистов по ИИ, изучающих пропаганду. «‎У нас три направления: определение наличия и типов манипуляций в текстах, нахождение провокационных комментариев в чатах и выделение основных тем в новостях» — рассказывает К., разработчица «‎Оплота». — «‎В работе есть четыре этапа — это 1) анализ запросов потенциальной аудитории, 2) анализ, сбор и разметка данных, 3) разработка моделей машинного обучения, 4) подача этих моделей через API или ботов, чтобы ими могли пользоваться другие разработчики, исследователи и обычные люди. Разработка идет чисто волонтёрскими усилиями».

Хотя стопроцентно надежных инструментов выделения пропаганды нет, можно применять инструменты детекции ботов и обращать внимание на проверяемость тезисов, выдвигаемых в тексте. Проверить, насколько хорошо у вас получается определять дезинформацию, можно в коротком тесте Кембриджского университета. У авторки этого материала получилось верно ответить на 13 из 16 вопросов.

Изображение:

Вид со ступенек Европарламента. Брюссель, Бельгия. 13 июня 2022 г. (© schwingen.net)

Источники:

Как и почему пропаганда работает в XXI веке: исследователь интернета Григорий Асмолов объясняет на примере России

Что современная наука знает о пропаганде? Исследователь Максим Алюков собрал научные факты об устройстве пропаганды

Когда закончится эффект российской пропаганды?

Can GPT-4 Identify Propaganda? Annotation and Detection of Propaganda Spans in News Articles

Computational Propaganda Theory and Bot Detection System: Critical Literature Review

 

 

Поделитесь публикацией с друзьями

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Похожие тексты на эту тематику