Материалов по заданным критериям не найдено
События Аналитика Обзор Контакты
Спецпроекты
Аналитика
13 мая 2026, 12:30

Две стороны искусственного интеллекта: от оружия антитеррора к новым вызовам безопасности

12 мин.
19

Стремительное развитие технологий искусственного интеллекта (ИИ) на рубеже 2020-х – 2030-х годов стало одним из главных вызовов и одновременно инструментов XXI века. Если еще десятилетие назад ИИ оставался преимущественно предметом академических исследований и научной фантастики, то сегодня он прочно интегрирован в системы государственного управления, оборонные комплексы, финансовый сектор и повседневную жизнь граждан. Эта технологическая трансформация носит амбивалентный характер: с одной стороны, ИИ открывает беспрецедентные возможности для обеспечения безопасности, с другой - создает уязвимости, которые оперативно осваиваются деструктивными элементами. Проблема противодействия терроризму всегда находилась в авангарде задач национальной безопасности. Однако традиционные методы - от агентурной работы до анализа сигналов - столкнулись с необходимостью обработки больших объемов информации (Big Data), с чем человеческий мозг физически не способен справиться. Именно здесь ИИ был призван стать спасительным решением: алгоритмы машинного обучения обещали предсказывать атаки, отслеживать финансирование террористических организаций и распознавать угрозы в киберпространстве быстрее и точнее человека. Однако эволюция угроз традиционно опережает эволюцию защиты. По мере того как государства внедряют ИИ в оборонные и полицейские структуры, сами террористические сообщества и враждебные государства-спонсоры начинают использовать те же технологии для атак нового поколения. При этом возникает парадоксальная ситуация: инструмент, призванный обеспечить абсолютную безопасность, порождает асимметричные угрозы.  С одной стороны, ИИ предоставляет беспрецедентные возможности для защиты: скорость обработки информации, недоступная человеку, способность обнаруживать аномалии в гигабайтах данных, автоматизация рутинных операций, высвобождающая ресурсы для аналитической работы. С другой стороны, те же самые технологии открывают перед террористическими группами новые горизонты — от создания реалистичных дипфейков для дезинформации до использования автономных дронов-роев, способных атаковать объекты критической инфраструктуры без прямого управления оператора. В складывающейся ситуации важно понять, как должна трансформироваться стратегия национальной безопасности в условиях, когда ИИ выступает одновременно и главным союзником, и одним из самых опасных противников.

# Кибератаки # Искусственный интеллект # Технологии # Кибербезопасность # Цифровизация # Национальная безопасность
Две стороны искусственного интеллекта: от оружия антитеррора к новым вызовам безопасности

Искусственный интеллект на службе антитеррора: достижения и системные риски

Одним из наиболее масштабных направлений применения ИИ в антитеррористической деятельности стала предиктивная аналитика. Алгоритмы машинного обучения, подготовленные на массивах данных о ранее имевших место терактах, перемещениях подозрительных лиц, финансовых операциях и коммуникациях в зашифрованных каналах, используются для выстраивания вероятностных моделей будущих атак. В ряде стран, включая США, Израиль, Китай и государства Европейского союза, такие системы интегрированы в работу национальных разведывательных и правоохранительных органов.

Технологически предиктивная аналитика опирается на три ключевых компонента: сбор данных из максимально широкого спектра источников (от геолокации мобильных устройств до транзакций в системах быстрых платежей), построение профилей «нормального» поведения и выявление аномалий. Например, система может сигнализировать о нехарактерных перемещениях лица, ранее не покидавшего определенный район, о покупке химических реагентов в сочетании с поиском инструкций по изготовлению самодельных взрывных устройств или о резком увеличении трафика в зашифрованных мессенджерах среди группы людей, не связанных формальными социальными связями. Сторонники такого подхода утверждают, что именно автоматизация анализа больших данных позволила предотвратить десятки терактов в Европе после 2015 года. Действительно, в условиях, когда спецслужбы ежедневно обрабатывают миллионы единиц информации, человеческий мозг физически не способен выявить все потенциально значимые паттерны. Алгоритмы же работают без усталости и предвзятости, если, конечно, сама обучающая выборка не содержит систематических искажений.

Однако именно здесь кроется первая группа рисков. Исследования, проведенные в Массачусетском технологическом институте (США) и Стэнфордском университете (США), показали, что системы распознавания лиц и поведенческого анализа демонстрируют разную точность в зависимости от расовой, этнической и социальной принадлежности наблюдаемых. В некоторых системах ошибка идентификации для представителей этнических меньшинств может быть в десять раз выше, чем для титульных групп населения. Это порождает не только этическую проблему дискриминации, но и практическую: высокий уровень ложных срабатываний ведет к распылению ресурсов и «усталости» операторов, которые перестают доверять сигналам системы. Кроме того, алгоритмическая предвзятость может стать фактором радикализации. Когда определенные группы населения систематически подвергаются повышенному контролю и ложным обвинениям со стороны «умных» систем, это формирует устойчивое ощущение несправедливости, которое легко эксплуатируется террористическими пропагандистами. Таким образом, инструмент, призванный обеспечивать безопасность, при некорректной реализации сам может способствовать расширению социальной базы терроризма.

Вторым важнейшим направлением стало использование ИИ для модерации контента. Под эгидой международных инициатив, таких как Global Internet Forum to Counter Terrorism (GIFCT), крупнейшие цифровые платформы внедрили системы автоматического выявления и удаления материалов, связанных с террористической пропагандой, вербовкой и инструкциями по изготовлению взрывных устройств. В данном случае в качестве технологической основы используется хеширование - уникальные цифровые отпечатки видео- и аудиоматериалов, которые после однократного выявления блокируются при всех последующих попытках загрузки. На начальном этапе эта мера оказалась достаточно эффективной. Распространение казней, снимавшихся террористическими группировками в 2010‑х годах, было значительно затруднено. Однако адаптивность деструктивных акторов быстро привела к эскалации «войны алгоритмов». Террористические структуры начали использовать методы обфускации: незначительные изменения в видео (изменение разрешения, наложение шума, обрезка краев) позволяли обойти системы хеширования. В ответ платформы внедрили алгоритмы компьютерного зрения, которые способны распознавать смысловое содержание независимо от формата файла.

После появления генеративных нейросетей террористические пропагандисты смогли создавать неограниченное количество уникальных видеороликов, текстов и изображений, не имеющих цифровых «родителей» в базах хешей. Системы автоматической модерации вынуждены переходить от детекции известных материалов к анализу семантики и интенций, что технически неизмеримо сложнее. В результате значительные объемы деструктивного контента вернулись в информационное пространство, но уже в новом, алгоритмически «чистом» виде. В этой связи следует отметить, что чем больше государственные структуры полагаются на ИИ в обеспечении безопасности, тем более уязвимыми становятся сами эти системы. Кроме того, уязвимости, характерные для алгоритмов машинного обучения, создают принципиально новые возможности для атак, которые могут быть использованы террористическими группами.

При этом можно выделить два типа уязвимости систем, использующих ИИ. Первый тип классифицируется как «отравление данных» (data poisoning). Если противник получает доступ к процессу формирования обучающей выборки, он может внедрить в нее специально сконструированные примеры, которые заставят алгоритм игнорировать реальные угрозы или, наоборот, классифицировать безопасные объекты как опасные. Например, внесение в систему видеонаблюдения аэропорта искаженных данных может привести к тому, что алгоритм перестанет распознавать оставленный багаж или, напротив, начнет сигнализировать о сотнях ложных угроз в час, парализуя работу служб безопасности.

Второй тип - состязательные атаки (adversarial attacks). Специально модифицированное изображение, незаметное для человеческого глаза, может быть воспринято нейросетью как совершенно иной объект. Исследования показывают, что наклейка определенной формы на дорожном знаке «Стоп» заставляет систему автопилота распознавать его как знак «Ограничение скорости 80 км/ч». В контексте борьбы с терроризмом это означает, что террористы могут создавать визуальные паттерны, которые делают их невидимыми для систем видеонаблюдения или, напротив, заставляют алгоритмы идентифицировать их как сотрудников служб безопасности. Таким образом и у ИИ есть своя ахиллесова пята - уязвимость к «отравлению данных» и подмене массивов информации. Эффективная в теории система на практике может быть ослеплена противником или настроена на ложные цели.

ИИ в антитеррористической деятельности - это не панацея, а сложный инструмент с собственной уязвимостью. Его эффективность напрямую зависит от качества данных, архитектуры алгоритмов и понимания того, что любое технологическое преимущество может быть нейтрализовано адаптацией противника.

Две стороны искусственного интеллекта: от оружия антитеррора к новым вызовам безопасности

Новые вызовы: терроризм, вооруженный искусственным интеллектом

На фоне использования государством ИИ для обеспечения безопасности и противодействия терроризму, террористические организации адаптируют технологии искусственного интеллекта для проведения атак нового поколения. При этом речь идет не о гипотетических угрозах далекого будущего, а о тенденциях, которые уже проявляются в операционной деятельности деструктивных групп. Появление больших языковых моделей (таких как GPT-4 и их аналоги) и генеративных нейросетей для создания изображений и видео (Midjourney, Sora, Runway) радикально изменило ландшафт информационного воздействия. Если раньше создание качественной пропаганды требовало участия профессиональных копирайтеров, видеографов и психологов, то сегодня те же задачи могут решаться одним человеком с доступом к коммерческим или открытым ИИ-сервисам.

Террористические группы используют генеративные модели для нескольких целей. Во-первых, это масштабирование пропаганды. Алгоритмы позволяют генерировать тысячи текстов на десятках языков, адаптированных под локальные культурные и религиозные контексты. Читатель в Индонезии, Нигерии или Франции получает материалы, которые выглядят так, как будто они созданы специально для него, что значительно повышает эффективность вербовки.

Во-вторых, это создание синтетических лидеров. В закрытых каналах террористических групп уже зафиксированы случаи использования дипфейков для создания образа «идеального проповедника», который обращается к аудитории с наставлениями, хотя в реальности такой человек не существует. Это позволяет обезличить пропаганду, сделать ее неуязвимой для физической ликвидации конкретных лидеров и создавать иллюзию широкой поддержки.

В-третьих, это социальная инженерия. Большие языковые модели способны вести длительные, эмоционально окрашенные диалоги, выявляя среди тысяч собеседников тех, кто склонен к радикализации. Боты нового поколения могут поддерживать разговор на протяжении недель, постепенно подводя жертву к принятию радикальной идеологии или к предоставлению конфиденциальной информации, включая данные о работе критической инфраструктуры. Такие атаки практически неотличимы от общения с реальным человеком и могут осуществляться в масштабах, недоступных классическим вербовщикам.

Наиболее тревожным аспектом является то, что порог входа для использования этих технологий чрезвычайно низок. Открытые модели ИИ, доступные для скачивания и тонкой настройки, позволяют террористическим ячейкам создавать собственные инструменты без риска быть заблокированными на коммерческих платформах. Регулирование этой сферы сталкивается с фундаментальным противоречием: запрет на распространение открытых моделей противоречит принципам технологического развития, а их доступность неизбежно ведет к попаданию в руки деструктивных акторов.

Одним из наиболее эффективных инструментов ассиметричного воздействия в последнее десятилетие стали беспилотные летательные аппараты (БПЛА). Однако внедрение элементов искусственного интеллекта в системы управления дронами выводит эту угрозу на качественно новый уровень. Классические дроны-камикадзе требуют оператора, который управляет аппаратом через радиоканал. Это создает уязвимость: системы радиоэлектронной борьбы могут подавить сигнал управления, сделав дрон бесполезным. При этом автономные системы, оснащенные компьютерным зрением и алгоритмами навигации, не нуждаются в постоянной связи с оператором. Достаточно задать цель на этапе запуска и аппарат самостоятельно находит путь к ней, распознает объект атаки и поражает его.

Особую опасность представляет технология роя (swarming). Координация множества автономных аппаратов без централизованного управления позволяет проводить массированные атаки, которые невозможно отразить средствами традиционной противовоздушной обороны, рассчитанными на единичные цели. Несколько десятков коммерчески доступных дронов, объединенных в рой и оснащенных примитивными алгоритмами координации, способны нанести критический ущерб нефтеперерабатывающему заводу, аэропорту или объекту энергетической инфраструктуры. Показательно, что технология роя не требует высокотехнологичного производства. Все необходимые компоненты - контроллеры, камеры, акселерометры, процессоры для выполнения простых нейросетевых задач - доступны на открытом рынке. Алгоритмы координации описываются в открытых научных публикациях. Это означает, что любая террористическая группа с техническими навыками может создать собственный арсенал автономных ударных систем, практически неотличимых от тех, что разрабатываются в оборонных лабораториях государств.

Еще одним направлением, где ИИ меняет природу террористической угрозы, являются комбинированные киберфизические атаки. Современные города и системы жизнеобеспечения все больше зависят от автоматизированных систем управления, которые, в свою очередь, управляются алгоритмами. Это создает возможности для атак, которые одновременно воздействуют на цифровую и физическую составляющие. Сценарий такой атаки может выглядеть следующим образом: с использованием дипфейков блокируется работа диспетчерских служб (ложные вызовы, имитирующие голоса руководства, отдающие противоречивые приказы), одновременно с этим с помощью методов социальной инженерии, автоматизированной ИИ, получаются пароли доступа к системам управления транспортом или водоснабжением, а физическая составляющая атаки (например, подрыв или автономные дроны) наносит удар по объектам, где ручное управление было выведено из строя.

Особенность таких атак заключается в том, что они требуют минимального присутствия террористов-смертников на месте. Основная часть операций осуществляется удаленно, с использованием алгоритмов, что снижает риски для исполнителей и затрудняет идентификацию организаторов. Кроме того, комбинированные атаки создают эффект синергии: паника от информационного воздействия усиливает последствия физического разрушения, а разрушение инфраструктуры делает невозможным быстрое информирование населения, создавая замкнутый круг хаоса.

Дипфейки с участием первых лиц государства, автоматизированные кампании дезинформации, имитирующие сбои в работе экстренных служб, автономные атаки, которые невозможно однозначно приписать конкретной группировке, - все это работает на создание ощущения, что государство утратило контроль над технологиями и собственной территорией. В условиях, когда граждане перестают доверять официальным источникам информации и системам безопасности, социальная ткань становится уязвимой для радикализации, а возможности государства по мобилизации ресурсов для противодействия угрозам снижаются.

Анализ перечисленных угроз позволяет выявить их глубинную тенденцию. Если традиционный терроризм стремился максимизировать число жертв или нанести символический удар по государственным институтам, то терроризм, вооруженный ИИ, нацелен на более фундаментальную цель - разрушение доверия к способности государства обеспечивать безопасность и функционирование критических систем.

Использование ИИ террористическими группами - это не просто техническое перевооружение, а смена стратегической парадигмы. Противник переходит от попыток нанести единичный удар к системному воздействию на алгоритмическую инфраструктуру и информационное пространство государства.

Искусственный интеллект изменил природу противостояния между государством и террористическими группами. Если в XX веке это противостояние велось преимущественно в физическом пространстве - улицы, здания, транспортные узлы, - то сегодня оно все больше смещается в алгоритмическую плоскость. Технологии ИИ не имеют встроенной «моральной» направленности. Их применение определяется тем, кто контролирует данные, алгоритмы и вычислительные мощности. Государства, инвестирующие в развитие ИИ для защиты от терроризма, должны одновременно инвестировать в защиту самих систем ИИ от атак и в мониторинг того, как те же технологии осваиваются деструктивными акторами. Осознание этого факта - первый шаг к формированию стратегии национальной безопасности, адекватной вызовам эпохи, в которой искусственный интеллект одновременно является и самым мощным средством защиты, и самым опасным оружием нападения.

Читайте эту статью на портале Репост.
0 комментариев
0
События Аналитика Обзор Глоссарий Лицензия на CMS Политика конфиденциальности
Свидетельство о регистрации Эл № ФС77-79711
Учредитель: АО «КОНСАЛТ»
Главный редактор:
Коныгин С.С.
Адрес редакции: 123060, г. Москва, ул. Маршала Рыбалко, д. 2, к. 6, помещ. 763H/7
Телефон редакции: 8 (991) 591-71-77, Электронная почта: info@repost.press