Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Дезинформации атаки являются намеренным распространение из ложной информации , с конечной целью ввести в заблуждение, путая, или манипулирование аудиторией . [1] Дезинформационные атаки могут проводиться государственными или негосударственными субъектами с целью воздействия на местное или иностранное население. Эти атаки обычно используются для изменения взглядов и убеждений, продвижения определенной повестки дня или побуждения целевой аудитории к определенным действиям. [2] [3]

Дезинформационные атаки могут быть использованы через традиционные средства массовой информации, такие как спонсируемые государством телеканалы и радио. [4] Однако с появлением социальных сетей атаки дезинформации становятся все более распространенными и мощными . Цифровые инструменты, такие как боты , алгоритмы и технологии искусственного интеллекта , используются для распространения и усиления дезинформации и микротаргетирования групп населения на онлайн-платформах, таких как Instagram , Twitter , Facebook и YouTube . [5]

Атаки дезинформации могут представлять угрозу для демократии в онлайн-пространстве, целостности избирательных процессов, таких как президентские выборы в США в 2016 году , и национальной безопасности в целом. [6]

Меры защиты включают приложения машинного обучения, которые могут выявлять дезинформацию на платформах, системы проверки фактов и алгоритмической корректировки, а также сотрудничество между частными компаниями социальных сетей и правительствами в создании решений и обмене ключевой информацией. [3] Также разрабатываются образовательные программы, чтобы научить людей лучше различать факты и дезинформацию в Интернете. [7]

Методы дезинформационной атаки [ править ]

Традиционные СМИ [ править ]

Традиционные каналы СМИ могут использоваться для распространения дезинформации. Например, Russia Today - это финансируемый государством новостной канал, вещающий на международном уровне. Он направлен на повышение репутации России за рубежом, а также на изображение западных стран, таких как США, в негативном свете. В частности, он освещает негативные аспекты США и представляет теории заговора, направленные на введение в заблуждение и дезинформацию аудитории. [4]

Социальные сети [ править ]

Преступники в основном используют каналы социальных сетей как средство распространения дезинформации. Они используют различные инструменты для проведения дезинформационных атак, такие как боты, алгоритмы, глубокие фальшивые технологии и психологические принципы.

  • Боты - это автоматизированные агенты, которые могут создавать и распространять контент на социальных онлайн-платформах. Многие боты могут участвовать в базовых взаимодействиях с другими ботами и людьми. В кампаниях дезинформационных атак они используются для быстрого распространения дезинформации и взлома цифровых социальных сетей. Боты могут создавать иллюзию, что одна часть информации поступает из множества разных источников. Таким образом, кампании дезинформационных атак делают их контент правдоподобным за счет многократного и разнообразного воздействия. [8] Заполняя каналы социальных сетей повторяющимся контентом, боты также могут изменять алгоритмы и переключать внимание в Интернете на дезинформационный контент. [3]
  • Алгоритмы используются для усиления распространения дезинформации. Алгоритмы фильтруют и адаптируют информацию для пользователей и изменяют потребляемый ими контент. [9] Исследование показало, что алгоритмы могут быть конвейерами радикализации, поскольку они представляют контент на основе уровней взаимодействия с пользователем. Пользователей больше привлекает радикальный, шокирующий и вызывающий клик контент. [10] В результате экстремистские, привлекающие внимание сообщения могут привлекать высокий уровень взаимодействия с помощью алгоритмов. Кампании по дезинформации могут использовать алгоритмы для усиления экстремистского содержания и распространения радикализации в Интернете. [11]
  • Глубоко поддельный цифровой контент , который был изменен. Технологии глубокой подделки могут использоваться для клеветы, шантажа и выдачи себя за другое лицо. Из-за низкой стоимости и эффективности глубокие подделки могут использоваться для распространения дезинформации быстрее и в большем объеме, чем люди. Кампании по дезинформационным атакам могут использовать глубоко поддельные технологии для создания дезинформации о людях, государствах или нарративах. Технологии глубокой подделки могут использоваться для введения аудитории в заблуждение и распространения лжи. [12]
  • Психология человека также применяется, чтобы сделать атаки дезинформации более мощными и вирусными. Психологические явления, такие как стереотипы, предвзятость подтверждения, избирательное внимание и эхо-камеры, вносят свой вклад в вирусность и успех дезинформации на цифровых платформах. [8] [13] Атаки дезинформации часто считаются типом психологической войны из-за использования психологических методов для манипулирования населением. [14]

Примеры [ править ]

Внутренние атаки дезинформации избирателей [ править ]

Атаки внутренней дезинформации избирателей чаще всего используются автократами с целью прикрыть коррупцию на выборах . Дезинформация избирателей включает публичные заявления, утверждающие, что местные избирательные процессы законны, и заявления, дискредитирующие наблюдателей за выборами. Фирмы по связям с общественностью также могут быть наняты для проведения специализированных кампаний дезинформации, включая рекламу в СМИ и закулисное лоббирование . Например, государственные структуры использовали атаки дезинформации избирателей, чтобы переизбрать Ильхама Алиева на президентских выборах 2013 года в Азербайджане . Они ограничили наблюдение за выборами, разрешив только определенным группам, таким как бывшая советская республикасоюзникам наблюдать за избирательным процессом. Фирмы по связям с общественностью также были наняты, чтобы продвигать идею честных и демократических выборов. [15]

Русские кампании [ править ]

  • Российская организация, известная как Агентство интернет-исследований (IRA), потратила тысячи на рекламу в социальных сетях, чтобы повлиять на президентские выборы в США в 2016 году. В этой политической рекламе использовались пользовательские данные, а также микротаргетинг и распространение ложной информации среди определенных групп населения с конечной целью обострения поляризации и подрыва общественного доверия к политическим институтам. [16] Проект вычислительной пропаганды в Оксфордском университете обнаружил, что реклама IRA была специально направлена ​​на то, чтобы посеять недоверие к правительству США среди американцев мексиканского происхождения и снизить явку избирателей среди афроамериканцев . [17]
  • Russia Today - это финансируемый государством новостной канал, цель которого - повысить репутацию России за рубежом и представить западные страны в негативном свете. Он служил платформой для распространения пропаганды и заговоров в отношении западных государств, таких как США [4]
  • Во время русско-украинской войны 2014 года Россия сочетала в своей наступательной стратегии традиционные боевые действия с атаками дезинформации. Атаки дезинформации использовались, чтобы посеять сомнения и замешательство среди вражеского населения и запугать противников, подорвать доверие общества к украинским институтам и повысить репутацию и легитимность России. Эта гибридная война позволила России эффективно оказывать физическое и психологическое превосходство над целевыми группами населения во время конфликта. [18]

Другие известные кампании [ править ]

Приложение под названием «Dawn of Glad Tidings», разработанное членами Исламского государства , помогает организации в ее усилиях по быстрому распространению дезинформации в социальных сетях. Когда пользователь загружает приложение, ему предлагается связать его со своей учетной записью в Twitter и предоставить приложению доступ к твитам из своей личной учетной записи. В результате это приложение позволяет автоматически отправлять твиты из реальных учетных записей пользователей и помогает создавать тенденции в Twitter, которые усиливают дезинформацию, производимую Исламским государством, в международном масштабе. [17]

Этические проблемы [ править ]

  • Растет озабоченность тем, что Россия может использовать атаки дезинформации для дестабилизации некоторых членов НАТО , таких как страны Балтии . Государства с сильно поляризованным политическим ландшафтом и низким уровнем доверия общественности к местным СМИ и правительству особенно уязвимы для атак дезинформации. [19] Россия может использовать дезинформацию, пропаганду и запугивание, чтобы заставить такие государства принять российские нарративы и повестку дня. [17]
  • Атаки дезинформации могут подорвать демократию в цифровом пространстве. С помощью алгоритмов и ботов дезинформация и фейковые новости могут усиливаться, пользовательские каналы контента могут быть адаптированы и ограничены, а эхо-камеры могут легко развиваться. [20] Таким образом, атаки дезинформации могут вызвать политическую поляризацию и изменить общественный дискурс. [21]
  • Во время президентских выборов в США в 2016 году российские кампании влияния использовали методы взлома и дезинформационные атаки, чтобы запутать общественность по ключевым политическим вопросам и посеять рознь. Эксперты опасаются, что атаки дезинформации будут все чаще использоваться для воздействия на общенациональные выборы и демократические процессы. [6]

Меры защиты [ править ]

Федеральный [ править ]

Администрация Трампа поддержала инициативы по оценке технологии блокчейн как потенциального механизма защиты от интернет-манипуляций. Blockchain является децентрализованным, защищенной базой данных , которая может хранить и защищать транзакционную информацию. Технология блокчейн может быть применена для повышения безопасности передачи данных в онлайн-пространстве и сетях Интернета вещей , что затрудняет внесение участниками изменений или цензуры контента и проведения дезинформационных атак. [22]

Операция «Светящаяся симфония» в 2016 году стала еще одной федеральной инициативой, направленной на борьбу с атаками дезинформации. В ходе этой операции была предпринята попытка развеять пропаганду ИГИЛ в социальных сетях. Однако в значительной степени это было неудачно: боевики ИГИЛ продолжали распространять пропаганду на других неконтролируемых онлайн-платформах. [23]

Частный [ править ]

Частные компании, работающие в социальных сетях, разработали инструменты для выявления дезинформации на своих платформах и борьбы с ней. Например, Twitter использует приложения машинного обучения, чтобы отмечать контент, который не соответствует условиям предоставления услуг, и выявлять экстремистские сообщения, поощряющие терроризм. Facebook и Google разработали систему иерархии контента, в которой проверяющие могут выявлять и снижать ранжирование возможной дезинформации и соответствующим образом корректировать алгоритмы. [6] Многие компании рассматривают возможность использования процедурных правовых систем для регулирования контента на своих платформах. В частности, они рассматривают возможность использования апелляционных систем: сообщения могут быть удалены за нарушение условий обслуживания и выдачу себя за угрозу дезинформации, но пользователи могут оспорить это действие через иерархию апелляционных органов.[11]

Совместные меры [ править ]

Эксперты по кибербезопасности утверждают, что сотрудничество между государственным и частным секторами необходимо для успешной борьбы с атаками дезинформации. Стратегии совместной защиты включают:

  • Создание «консорциумов по обнаружению дезинформации», где заинтересованные стороны (то есть частные компании в социальных сетях и правительства) собираются для обсуждения атак дезинформации и разработки стратегий взаимной защиты. [3]
  • Обмен важной информацией между частными компаниями в социальных сетях и правительством, чтобы можно было разработать более эффективные стратегии защиты. [24] [3]
  • Координация между правительствами для создания единого и эффективного ответа на транснациональные кампании дезинформации. [3]

Образование и осведомленность [ править ]

В 2018 году исполнительный вице-президент Европейской комиссии за Европу, пригодную для цифровой эпохи, собрал группу экспертов, чтобы подготовить отчет с рекомендациями по обучению цифровой грамотности. Предлагаемые учебные программы по цифровой грамотности знакомят студентов с сайтами по проверке фактов, такими как Snopes и FackCheck.org . Эта учебная программа направлена ​​на то, чтобы вооружить учащихся навыками критического мышления, чтобы различать фактический контент и дезинформацию в Интернете. [7]

См. Также [ править ]

  • Дезинформация
  • Пропаганда
  • Русские веб-бригады
  • Манипуляции со СМИ
  • Deepfake
  • Алгоритм
  • Психологическая война
  • Социальные медиа
  • Фейковые новости
  • Агентство Интернет-исследований

Ссылки [ править ]

  1. ^ Fallis, Дон (2015). "Что такое дезинформация?" . Библиотечные тенденции . 63 (3): 401–426. DOI : 10,1353 / lib.2015.0014 . hdl : 2142/89818 . ISSN  1559-0682 . S2CID  13178809 .
  2. ^ Отдел поведенческих наук, Университет Де Ла Саль, Манила, Филиппины; Collado, Zaldy C .; Баско, Анжелика Джойс М .; Департамент коммуникаций, Университет Адамсона, Манила, Филиппины; Sison, Albin A .; Департамент коммуникаций, Университет Адамсона, Манила, Филиппины (2020-06-26). «Жертвы онлайн-дезинформации среди молодых филиппинцев: виноват ли человеческий разум?» . Познание, мозг, поведение . 24 (2): 75–91. DOI : 10,24193 / cbb.2020.24.05 .CS1 maint: несколько имен: список авторов ( ссылка )
  3. ^ Б с д е е Фредерик, Кара (2019). «Новая война идей: уроки борьбы с терроризмом для борьбы с цифровой дезинформацией» . Цитировать журнал требует |journal=( помощь )
  4. ^ а б в Аджир, СМИ; Ваилант, Бетани (2018). «Российская информационная война: значение для теории сдерживания» . Стратегические исследования ежеквартально . 12 (3): 70–89. ISSN 1936-1815 . JSTOR 26481910 .  
  5. ^ Katyal, Соня К. (2019). «Искусственный интеллект, реклама и дезинформация» . Реклама и общество ежеквартально . 20 (4). DOI : 10,1353 / asr.2019.0026 . ISSN 2475-1790 . 
  6. ^ a b c Даунс, Кэти (2018). «Стратегические слепые зоны по киберугрозам, векторам и кампаниям» . Обзор киберзащиты . 3 (1): 79–104. ISSN 2474-2120 . JSTOR 26427378 .  
  7. ^ a b Глиссон, Лейн (2019). «Прерывание цикла вращения: сложность обучения в эпоху фейковых новостей» . Портал: Библиотеки и Академия . 19 (3): 461–484. DOI : 10,1353 / pla.2019.0027 . ISSN 1530-7131 . S2CID 199016070 .  
  8. ^ a b Кирдемир, Барис (2019). «ВРАЖДЕБНОЕ ВЛИЯНИЕ И ВОЗНИКАЮЩИЕ ПОЗНАВАТЕЛЬНЫЕ УГРОЗЫ В КИБЕРПРОСТРАНСТВЕ» . Центр экономических и внешнеполитических исследований. Цитировать журнал требует |journal=( помощь )
  9. ^ Sacasas, LM (2020). «Аналоговый город и цифровой город» . Новая Атлантида (61): 3–18. ISSN 1543-1215 . JSTOR 26898497 .  
  10. ^ Brogly, Крис; Рубин, Виктория Л. (2018). "Обнаружение кликбейта: вот как это сделать / Комментарий детектируем кликбейт" . Канадский журнал информации и библиотековедения . 42 (3): 154–175. ISSN 1920-7239 . 
  11. ^ а б Хельдт, Амели (2019). «Давайте встретимся на полпути: разделение новых обязанностей в эпоху цифровых технологий» . Журнал информационной политики . 9 : 336–369. DOI : 10,5325 / jinfopoli.9.2019.0336 . ISSN 2381-5892 . JSTOR 10.5325 / jinfopoli.9.2019.0336 . S2CID 213340236 .   
  12. ^ «Глубокие фейки с оружием: национальная безопасность и демократия на JSTOR» . www.jstor.org . Проверено 12 ноября 2020 .
  13. ^ Бьюкенен, Том (2020-10-07). Чжао, Цзичан (ред.). «Почему люди распространяют ложную информацию в Интернете? Влияние характеристик сообщения и зрителей на вероятность распространения дезинформации в социальных сетях» . PLOS ONE . 15 (10): e0239666. Bibcode : 2020PLoSO..1539666B . DOI : 10.1371 / journal.pone.0239666 . ISSN 1932-6203 . PMC 7541057 . PMID 33027262 .   
  14. ^ Томас, Тимоти Л. (2020). "Информационное оружие: излюбленное неядерное стратегическое оружие России" . Обзор киберзащиты . 5 (2): 125–144. ISSN 2474-2120 . JSTOR 26923527 .  
  15. ^ Мерло, Патрик (2015). «Мониторинг выборов против дезинформации» . Журнал демократии . 26 (3): 79–93. DOI : 10,1353 / jod.2015.0053 . ISSN 1086-3214 . S2CID 146751430 .  
  16. ^ Крейн, Мэтью; Надлер, Энтони (2019). «Политическое манипулирование и инфраструктура интернет-рекламы» . Журнал информационной политики . 9 : 370–410. DOI : 10,5325 / jinfopoli.9.2019.0370 . ISSN 2381-5892 . JSTOR 10.5325 / jinfopoli.9.2019.0370 .  
  17. ^ а б в Приер, Джарред (2017). «Управляя трендом: социальные сети как информационная война» . Стратегические исследования ежеквартально . 11 (4): 50–85. ISSN 1936-1815 . JSTOR 26271634 .  
  18. ^ Wither, Джеймс К. (2016). «Осмысление гибридной войны» . Связи . 15 (2): 73–87. doi : 10.11610 / Connections.15.2.06 . ISSN 1812-1098 . JSTOR 26326441 .  
  19. ^ Humprecht, Эдда; Эссер, Франк; Ван Элст, Питер (июль 2020 г.). «Устойчивость к дезинформации в Интернете: основа для межнациональных сравнительных исследований» . Международный журнал прессы / политики . 25 (3): 493–516. DOI : 10.1177 / 1940161219900126 . ISSN 1940-1612 . S2CID 213349525 .  
  20. ^ Пек, Эндрю (2020). «Проблема усиления: фольклор и фейковые новости в эпоху социальных сетей» . Журнал американского фольклора . 133 (529): 329–351. DOI : 10,5406 / jamerfolk.133.529.0329 . ISSN 0021-8715 . JSTOR 10.5406 / jamerfolk.133.529.0329 .  
  21. ^ Унвер, Х. Акин (2017). «Политика автоматизации, внимания и вовлечения» . Журнал международных отношений . 71 (1): 127–146. ISSN 0022-197X . JSTOR 26494368 .  
  22. ^ Султан, Оз (2019). «Борьба с дезинформацией, онлайн-терроризмом и киберрисками в 2020-е годы» . Обзор киберзащиты . 4 (1): 43–60. ISSN 2474-2120 . JSTOR 26623066 .  
  23. ^ Браун, Кэтрин А .; Грин, Шеннон Н .; Ван, Цзянь «Джей» (2017). «Общественная дипломатия и национальная безопасность в 2017 году: создание союзов, борьба с экстремизмом и рассеяние дезинформации» . Цитировать журнал требует |journal=( помощь )
  24. ^ Белый, Адам Дж. (2018). "Google.gov: Может ли союз между Google и правительством по фильтрации фактов стать прогрессивным ответом на" фейковые новости "?" . Новая Атлантида (55): 3–34. ISSN 1543-1215 . JSTOR 26487781 .