Тактика распространения дезинформации: как вторгаются в человеческий мозг

ИЗОБРАЖЕНИЕ КРЕДИТ:
Кредит изображения
Istock

Тактика распространения дезинформации: как вторгаются в человеческий мозг

Тактика распространения дезинформации: как вторгаются в человеческий мозг

Текст подзаголовка
От использования ботов до наводнения социальных сетей фейковыми новостями — тактика дезинформации меняет ход человеческой цивилизации.
    • Автор:
    • Имя автора
      Квантумран Форсайт
    • 4 октября 2023

    Сводка статистики

    Дезинформация распространяется с помощью таких тактик, как модель заражения и зашифрованные приложения. Такие группы, как Ghostwriter, нацелены на войска НАТО и США, а ИИ манипулирует общественным мнением. Люди часто доверяют знакомым источникам, что делает их восприимчивыми к ложной информации. Это может привести к увеличению количества кампаний по дезинформации на основе искусственного интеллекта, ужесточению государственного регулирования, более широкому использованию экстремистами зашифрованных приложений, усилению кибербезопасности в средствах массовой информации и образовательным курсам по борьбе с дезинформацией.

    Тактика распространения дезинформации

    Тактика дезинформации — это инструменты и стратегии, которые часто применяются на сайтах социальных сетей, создавая пандемию ложных убеждений. Эта манипуляция информацией привела к широко распространенному непониманию самых разных тем: от мошенничества на выборах до того, реальны ли жестокие нападения (например, стрельба в начальной школе в Сэнди-Хук) или безопасны ли вакцины. Поскольку фейковые новости продолжают распространяться на разных платформах, это порождает глубокое недоверие к социальным институтам, таким как средства массовой информации. Одна из теорий распространения вводящей в заблуждение информации называется моделью заражения и основана на том, как работают компьютерные вирусы. Сеть создается узлами, которые представляют людей, и ребрами, которые символизируют социальные связи. Понятие засеивается в одном «сознании» и распространяется в различных условиях и в зависимости от социальных отношений.

    Не помогает и то, что технологии и растущая цифровизация общества помогают сделать тактику дезинформации более эффективной, чем когда-либо. Примером являются приложения для обмена зашифрованными сообщениями (EMA), которые не только облегчают передачу ложной информации личным контактам, но и лишают компаний-разработчиков приложений возможности отслеживать передаваемые сообщения. Например, крайне правые группы перешли в EMA после атаки на Капитолий США в январе 2021 года, поскольку их запретили основные социальные сети, такие как Twitter. Тактика дезинформации имеет немедленные и долгосрочные последствия. Помимо выборов, на которых сомнительные личности с криминальным прошлым побеждают с помощью тролльских ферм, они могут маргинализировать меньшинства и способствовать военной пропаганде (например, вторжение России на Украину). 

    Разрушительное воздействие

    В 2020 году охранная компания FireEye опубликовала отчет, в котором освещаются усилия по дезинформации группы хакеров под названием Ghostwriter. С марта 2017 года пропагандисты распространяют ложь, в частности, против военного альянса Организации Североатлантического договора (НАТО) и войск США в Польше и странах Балтии. Они опубликовали фальсифицированные материалы в социальных сетях и на пророссийских новостных сайтах. Ghostwriter иногда использовал более агрессивный подход: взламывал системы управления контентом (CMS) новостных веб-сайтов, чтобы публиковать свои собственные статьи. Затем группа распространяет свои фейковые новости, используя фальшивые электронные письма, публикации в социальных сетях и даже статьи, написанные ими на других сайтах, которые принимают контент от читателей.

    Другая тактика дезинформации использует алгоритмы и искусственный интеллект (ИИ) для манипулирования общественным мнением в социальных сетях, например, «накрутка» подписчиков в социальных сетях с помощью ботов или создание автоматических тролльских аккаунтов для публикации разжигающих ненависть комментариев. Эксперты называют это компьютерной пропагандой. Между тем, исследование The New York Times показало, что политики используют электронную почту для распространения дезинформации чаще, чем люди думают. В США обе партии виновны в использовании гипербол в своих электронных письмах избирателям, что часто может способствовать распространению ложной информации. 

    Есть несколько ключевых причин, по которым люди поддаются кампаниям по дезинформации. 

    • Во-первых, люди умеют учиться в обществе и склонны доверять своим источникам информации, таким как друзья или члены семьи. Эти люди, в свою очередь, получают новости от надежных друзей, что затрудняет разрыв этого порочного круга. 
    • Во-вторых, людям часто не удается заранее проверить фактическую информацию, которую они потребляют, особенно если они привыкли получать новости из одного источника (часто традиционных СМИ или любимых социальных сетей). платформы, такие как Facebook или Twitter). Когда они видят заголовок или изображение (и даже просто брендинг), подтверждающий их убеждения, они часто не ставят под сомнение подлинность этих утверждений (независимо от того, насколько они смешны). 
    • Эхо-камеры — это мощные инструменты дезинформации, автоматически превращающие людей с противоположными убеждениями в врагов. Человеческий мозг запрограммирован на поиск информации, которая поддерживает существующие идеи, и игнорирует информацию, которая противоречит им.

    Более широкие последствия тактики распространения дезинформации

    Возможные последствия тактики распространения дезинформации могут включать: 

    • Все больше компаний, специализирующихся на искусственном интеллекте и ботах, помогают политикам и пропагандистам завоевывать последователей и «авторитет» посредством умных кампаний по дезинформации.
    • На правительства оказывается давление с целью создания законов по борьбе с дезинформацией и создания агентств для борьбы с фермами троллей и стратегами дезинформации.
    • Увеличение количества загрузок EMA для экстремистских групп, которые хотят распространять пропаганду и портить репутацию.
    • Медиа-сайты инвестируют в дорогие решения по кибербезопасности, чтобы не дать хакерам, занимающимся дезинформацией, внедрять фейковые новости в свои системы. В этом процессе модерации могут использоваться новые генеративные решения искусственного интеллекта.
    • Генеративные боты на базе искусственного интеллекта могут использоваться злоумышленниками для создания волны пропагандистского и дезинформационного медиа-контента в больших масштабах.
    • Усиление давления на университеты и общественные школы с целью включения курсов по борьбе с дезинформацией. 

    Вопросы для рассмотрения

    • Как вы защищаете себя от тактики дезинформации?
    • Как еще правительства и агентства могут предотвратить распространение этой тактики?

    Ссылки на статистику

    Для этого понимания использовались следующие популярные и институциональные ссылки:

    Центр международного управления инноваций Бизнес компьютерной пропаганды должен прекратиться