Судный день: ИИ на войне с человечеством
Обработка естественного языка (NLP), лежащая в основе ChatGPT, стала прорывом в области ИИ, поскольку позволила задавать машине команды типичным синтаксисом без помощи кода. Значительный прогресс за последние годы достигло компьютерное зрение, позволяющее ИИ обнаруживать и идентифицировать предметы так же, как это делает человек. С таким помощником кибербезопасность, моделирование боя, мониторинг угроз - в целом война - приобретает совершенно иной образ и сулит созданием сверхэффективных машин массового поражения.
ИИ на страже порядка
Искусственный интеллект применим в различных областях военного дела: от планирования операций до транспортировки войск, от обучения персонала до оказания ему медицинской помощи. В таких условиях оружие, датчики, навигация, поддержка авиации и наблюдение становятся невероятно эффективными при минимальном включении человека в процесс обработки данных, что снижает вероятность так называемого человеческого фактора и вытекающей из него ошибки.
Одна из самых перспективных военных разработок, использующих ИИ - роевой интеллект для дронов. Получая важную информацию, БПЛА передает ее другим дронам в рое, что делает потенциальную атаку гораздо более эффективной по сравнению с одиночным прилетом. Рой в данном случае акцентирован на общую цель, а дрон, получающий информацию, способен действовать автономно и, что самое главное - творчески, принимая решения в зависимости от положения цели. Подобно пчелам, ИИ-коптеры способны сообщать все необходимые для жизнедеятельности роя данные: расстояние, направление и высоту цели, а также данные о любой потенциальной угрозе. Такая технология преодолевает критический рубеж в военном деле, поскольку гарантирует поражение цели с помощью коллективного интеллекта, что значительно сокращает шансы на контратаку.
Обработка больших объемов данных занимает очень много времени, но возможности ИИ позволяют быстро их фильтровать и выбирать наиболее ценные. Это может позволить военнослужащим более эффективно выявлять закономерности, делать более точные выводы и создавать планы действий на основе полной картины. Выискивать в больших объемах информации нечто ценное, что может ускользнуть от взора человека - то, для чего предназначен генеративный искусственный интеллект. Благодаря своим способностям к обработке естественного языка такие модели могут передавать информацию в разговорной манере и вступать в диалог с людьми, чтобы объяснить её.
ИИ также может использоваться для фильтрации больших объемов контента из новостных лент и социальных сетей для выявления новой информации. Это позволяет аналитикам экономить время, поскольку система способна фильтровать повторяющуюся и неточную информацию, что в свою очередь оптимизирует процесс исследования, делая выводы аналитиков точнее.
Алгоритмы ИИ способны собирать и обрабатывать данные из множества различных источников, чтобы помочь в принятии решений в стрессовых ситуациях. Однако на данный момент ведется дискуссия о пригодности искусственного интеллекта в сложных этических дилеммах. Человек опирается не только на сухие факты, но также на собственный опыт, интуицию и даже предрассудки. Существует опасность, что машина, обученная совершенствоваться на базе собственных данных, попадет под влияние ложных и деструктивных идей, как, например, чат-бот Microsoft Tay, который в 2016 году меньше чем за сутки после запуска начал оскорблять людей в Twitter. Наряду со всеми преимуществами, угроза того, что система «сойдет с ума» остается весьма острой. В феврале 2024 года при попытке протестировать новую версию GPT-4 Turbo чат-бот начал выдавать бессвязную череду слов. Создатели языковых моделей признают, что их творения - черный ящик: обладая немыслимым потенциалом, они несут в себе неожиданную разрушительную силу. ИИ анализируют данные, выявляют закономерности, а потом создают предположения о том, как реагировать на запросы. Шизофазия, галлюцинации, инсульт - все, чем бы мы объяснили утрату речи у человека, остается неизведанной и непонятной областью для ИИ. Единственное объяснение, с которым мы можем столкнуться, заключается в том, что система по какой-то причине выходит за пределы контекста и теряет свою эффективность.
Гонка переоснащения
В 2023 году Политический отдел Пентагона опубликовал обновленные руководящие принципы разработки и эксплуатации автономного оружия. Директива Autonomy in Weapon Systems была первоначально выпущена в 2012 году как руководящие принципы и обязанности по разработке, тестированию и использованию этих систем. Но спустя десять лет, после взрывного развития ИИ, военные силы решили пересмотреть свои убеждения. Новая политика не запрещает определенные автономные возможности, а вместо этого предписывает, чтобы новые системы проходили всестороннюю процедуру тестирования и проверки. Обновление также предписывает создание рабочей группы по системам вооружения. Возглавляемая заместителем министра обороны по политике, группа будет консультировать старших руководителей Министерства обороны при рассмотрении ими вопроса об утверждении новых систем.
По данным Брукингского института, в период принятия стратегии резко возросли расходы правительства США на искусственный интеллект, что обусловлено увеличением военных инвестиций. Потенциальная стоимость федеральных контрактов, связанных с ИИ, увеличилась почти на 1200% - до $4,6 млрд. Поводом к этому стала жесткая технологическая конкуренция между США и Китаем. Сверхдержавы развивают свои промышленные мощности для создания полупроводниковых чипов, без которых разработка мощных моделей искусственного интеллекта невозможна. США в качестве подстраховки ввело экспортные ограничения, чтобы помешать Китаю приобретать передовые чипы.
Вместо того, чтобы определять возможности ведения боевых действий на основе ИИ, стратегия США направлена на укрепление организационной среды, в которой военнослужащие могут непрерывно использовать аналитику данных для получения устойчивого преимущества при принятии решений.
Несмотря на то, что американские военные уже накопили значительный опыт взаимодействия с ИИ, он охватывает лишь моделирование военной подготовки. Интеллектуальные системы готовят солдат к работе с боевыми системами, используемыми во время операций, то есть создают «военную игру», которая применяется для обучения солдат. Симуляция предоставляет военнослужащим реалистичные миссии и задачи, чтобы натренировать их, прежде чем им придется применять свои навыки в реальных ситуациях.
Языковые модели на основе ИИ могут читать источники и использовать их для создания учебных материалов, заметок и тестов. ИИ также может оценить текущие способности учащихся и адаптировать обучение под их конкретные потребности, объясняя материал как преподаватель-человек. Анализируя большие объёмы разведывательных данных, записи о предыдущих боевых действиях, ИИ способен создавать более комплексные программы обучения, включая подробные военные симуляции. Однако военные понимают, что исключать из процесса подготовки солдат живых инструкторов было бы критической ошибкой, поскольку необходимо постоянно контролировать корректность работы ИИ, его «понимания» запросов и адекватность выводимой информации.
В противовес США, только заявившим свои намерения оснастить вооруженные силы по последнему слову интеллектуальных технологий, Китай уже несколько лет ведет целую национальную кампанию по выделению ресурсов на разработку ИИ как в государственном, так и в частном секторе. Народно-освободительная армия (НОАК) использует ИИ для разработки беспилотных интеллектуальных боевых систем, повышения ситуационной осведомленности на поле боя, проведения многодоменных операций и продвижения программ обучения. По состоянию на 2018 год в Китае насчитывалось 4040 компаний в области ИИ.
Крупнейшие китайские интернет-гиганты Baidu, Alibaba и Tencent в совокупности инвестировали в отрасль ИИ в общей сложности $12,8 млрд, что превзошло совокупный объем четырех ведущих американских фирм.
Благодаря национальной стратегии военно-гражданского слияния НОАК удается быстро использовать последние достижения в гражданских технологических областях. В октябре 2019 года во время военного парада в День независимости были продемонстрированы WZ-8, сверхскоростной разведывательный беспилотник высокой дальности, и Sharp Sword-11 - большой ударный беспилотник-невидимка. Также был продемонстрирован беспилотный автономный подводный аппарат HSU-001. Активно изучаются возможности ИИ в выявлении слабых сторон обороны противника и улучшения повседневного планирования за счет повышения возможностей ситуационной осведомленности.
Россия имеет опыт разработки интеллектуальных систем еще с 1970-х годов, когда впервые была создана ракета П-700 «Гранит», способная определять состав и численность групповой цели, а также опознавать тип корабельного отряда и выявлять в нем основные объекты. В 2019 году на вооружение был принят комплекс РТК «Уран-9», управляемый с помощью ИИ. Он автономно двигается по заданному маршруту, ведет наблюдение, ищет и поражает цели, но решение об открытии огня остается за оператором. Перспективной разработкой считается БПЛА С-70 «Охотник», способный как самостоятельно выполнять задачи, так под управлением пилотируемого истребителя. В настоящее время частная компания тестирует ПО, с помощью которого любые дроны можно превратить в «умный рой». В феврале президент Владимир Путин анонсировал серийный выпуск перспективных образцов и внедрение технологий искусственного интеллекта в военной сфере.
На пороге хаоса
Поскольку основная проблема создания полностью интеллектуальных военных систем целиком упирается в создание производственных мощностей полупроводниковых чипов, пока ни одна страна мира не может похвастаться реальным применением высокотехнологичных ИИ в реальных боевых условиях. Однако первое, на чем акцентируют внимание исследователи — это на способности искусственного интеллекта повышать эффективность исследований, разработок и производства. Особую тревогу вызывает его связь с химией и биохимией. Легкость и скорость, с которой могут быть идентифицированы новые пути к существующим токсичным соединениям, беспокоит Организацию по запрещению химического оружия. То же касается и биотехнологий: вместо того, чтобы проводить длительные и дорогостоящие лабораторные эксперименты, ИИ может «предсказывать» биологические эффекты известных и даже неизвестных агентов. В 2022 году Филипп Ленцос с кафедры военных исследований Королевского колледжа Лондона описал эксперимент, в ходе которого искусственный интеллект менее чем за шесть часов «сгенерировал сорок тысяч молекул», которые оказались более токсичными, чем общеизвестные химические боевые агенты.
Разработка ядерного оружия может стать проще, поскольку потенциально ИИ может давать подробные инструкции. Единственное, что нас отделяет от такой перспективы - указание разработчиков искусственного интеллекта не отвечать на подобные запросы. В этой связи настоящей проблемой становится уже не столько разработка оружия массового поражения с помощью ИИ, сколько создание ИИ, неограниченного этическими нормами.
Данные, на основе которых работает ИИ, также могут использоваться в военных целях. Недостоверные сведения или манипулирование фактами создают дополнительную угрозу. Кроме того, искусственный интеллект будет ориентирован на военные цели, а не на избежание прямого столкновения, что ставит под сомнение объективность, принимаемых машиной решений. Единственный выход, который сегодня видят в научных кругах - ограничить внедрение ИИ в системы оружия массового поражения. Однако остаются открытыми вопросы, будет ли подконтрольным исполнение такого решение, каким способом предотвращать попытки бесконтрольной генерации ИИ и насколько размытыми станут границы человеческой этики в войне машин.
Учредитель: АО «КОНСАЛТ»
Коныгин С.С.
Телефон редакции: 8 (991) 591-71-77, Электронная почта: info@repost.press