Возможно, самым заметным глобальным сдвигом за последнее десятилетие стала быстрая трансформация технологических инноваций. XXI век принес важные новые разработки для ведения войны — как интуитивно, так и преднамеренно. В частности, все более актуальными становятся разработки в сфере искусственного интеллекта (ИИ). Они меняют наш мир.
Военные теперь стараются максимально использовать возможности ИИ — он считается таким же революционным технологическим прорывом, как и открытие пороха. ИИ позволяет машинам и оружию решать такие задачи, как обучение, планирование, анализ и выполнение миссий, имитирующих человеческий интеллект.
В то время как у ИИ есть захватывающие перспективы для обмена знаниями и инновациями, его значительные темпы развития вызывают серьезную озабоченность из-за возможных последствий в будущем для национальной безопасности и стратегической стабильности на региональном и международном уровнях.
В 2017 году президент России Владимир Путин заявил: «тот, кто совершит прорыв в разработке ИИ, будет господствовать в мире». Он констатировал очевидное и стремился догнать США в технологическом плане.
В случае с ИИ это технология, определяющая стратегию.
Глобальная гонка военных в сфере искусственного интеллекта
Использование ИИ в войне считается спорным, но, несомненно, перспективным. Благодаря беспрецедентной помощи США и НАТО Украина добилась асимметричных результатов против российской агрессии. В этой прокси-войне ИИ, спутники, беспилотники и кибервозможности, предоставленные Украине как испытательному полигону, до сих пор играли центральную роль в конфликте.
Автономные системы летального вооружения (LAWS) представляют особую угрозу, которую необходимо изучить в свете использования ИИ в военных операциях. Если ИИ, используемый в таких системах, допустит ошибку в расчетах и ударит не по той цели, это не только вызовет дефицит доверия между государствами, обладающими ядерным оружием, но также может снизить ядерные пороги — это увеличивает риск упреждающих ударов во время кризисов, особенно учитывая гонку за этим передовым оружием. В период с 2017 по 2021 год прогнозируемые расходы РФ на беспилотники составили $3,9 млрд, Китай потратил $4,5 млрд, а США — $17,5 млрд.
ИИ все чаще интегрируют в беспилотные летательные аппараты (БПЛА), LAWS, системы противоракетной обороны, подводные лодки и самолеты. Стратегия национальной безопасности США до 2022 года фокусируется на совместном развитии потенциала и обмене информацией между союзниками наряду с одновременным своевременным развертыванием таких технологий для защиты общего военно-технического преимущества. Третья офсетная стратегия США (third offset strategy; первая стратегия — тактическое ядерное оружие, вторая — высокоточное оружие, третья — роботизированные или автономные системы вооружений) предполагает внедрение системы глобального наблюдения и нанесения ударов (GSS), чтобы, в частности, противостоять распространению критических прорывных технологий.
Между тем, стремление Китая состоит в том, чтобы к 2030 году стать сверхдержавой с искусственным интеллектом. В 2022 году Пекин заявил, что ему удалось разработать модель системы противовоздушной обороны с поддержкой искусственного интеллекта, которая будет предсказывать траекторию гиперзвуковых планирующих ракет и в то же время иметь возможность проводить быструю контратаку. КНР также разрабатывает ряд автономных систем вооружения: страна развернула робототехнику и беспилотные системы на суше, в воздухе, на море и в космосе. Некоторые из этих систем поддерживают ИИ, но не для таргетирования целей.
Другие страны, такие как Россия, сосредоточены на использовании ИИ в морской сфере, включая подводные боевые дроны. Израильская противоракетная система «Железный купол» самостоятельно обнаруживает и сбивает ракеты.
Индийская тактика
В Южной Азии Индия создала Центр искусственного интеллекта и робототехники (CAIR) при Организации оборонных исследований и разработок (DRDO), чтобы поддержать гонку вооружений в сфере ИИ для военных целей. Более того, в индийской доктрине Land Warfare 2018 года значительный акцент был сделан на ИИ и его интеграции в военные системы. Имея угрозу войны на два фронта — против Пакистана и Китая — Нью-Дели мотивирован получить экономическую, дипломатическую и военную поддержку от США — она также включает новые технологии.
В связи с этим индийские военные эксперты сделали упор на использование ИИ в военных системах, пока не стало слишком поздно. Индия разрабатывает систему роботов Multi-Agent Robotics Framework — она, вероятно, будет действовать как команда солдат и помогать индийской армии в будущих войнах. Нью-Дели также приобрел 200 автономных роботов DAKSH — их еще называют дистанционно управляемыми транспортными средствами (ROV) — для обезвреживания бомб.
В области робототехники и ИИ Индия также сотрудничает с Японией, одновременно работая над более сложным использованием этих технологий в оборонном и военном секторах. К ним относятся интерпретация изображений, распознавание целей, оценка дальности, оценка зоны поражения ракет и использование роботов в более неклассифицированных формах. Недавние индо-американские инициативы в области технологий, космоса и обороны также включают сотрудничество в области ИИ и квантовых вычислений для противодействия Китаю.
Может ли использование ИИ закончиться ядерным ударом?
Эксперты полагают: в этот «третий ядерный век» необходимо переосмыслить традиционные концепции сдерживания и стратегической стабильности в связи с усилением акцента на новые технологии. Системы, основанные на искусственном интеллекте, могут обрабатывать данные намного быстрее, чем люди — это может помочь сократить цикл OODA («наблюдай-ориентируйся-решай-действуй»), тем самым рассеяв туман войны.
Тем не менее, ИИ по-прежнему нельзя запрограммировать на ситуационную осведомленность, отражающую человеческое понимание. Во время кризиса, если государства используют ИИ для обнаружения и нацеливания — а противник понимает, что по ту сторону фронта будут действовать быстрее с помощью ИИ — это может вынудить стороны прибегнуть к упреждающим ударам из-за боязни быть атакованным первым. Кроме того, любой сбой в системе может привести к неправильному анализу данных и может закончиться эскалацией или даже применением ядерного оружия.
Группа над/подводных беспилотных аппаратов может использоваться для обнаружения атомных подводных лодок. Однако другие эксперты полагают: из-за обширности океана для обнаружения подводных лодок с баллистическими ракетами (ПЛАРБ) могут потребоваться сотни и тысячи подводных беспилотников, поскольку большинство из них патрулируют открытое морское пространство.
Таким образом, наиболее благоприятным вариантом будет использование возможностей обнаружения с поддержкой ИИ в идентифицируемых узких местах. Однако сам этот шаг в наше время уже можно считать эскалацией. Например, индийская ПЛАРБ — INS Arihant — была развернута у пакистанских вод во время кризиса в мае 2019 года, и это было расценено как эскалация.
Индия также использует прилежащее морское пространство, благодаря чему у нее есть преимущество для картографирования данных в Афро-Азиатском океане с помощью технологий с поддержкой ИИ — их можно использовать в предконфликтных сценариях. Но быстрый анализ данных может привести к гипервойне и оказать сильное влияние на стратегическую стабильность между Индией и Пакистаном.
Интересно, что, как и в случае с ядерным оружием, монополия крупных держав на ИИ и LAWS не будет вечной. Со временем — если эта сфера не будет урегулирована международным правом — LAWS будут широко распространяться и становиться доступными. Последствия распространения таких технологий среди квазигосударственных субъектов могут вызывать серьезную озабоченность.
Вся тактика сдерживания может потерять смысл
Отказ от превентивного запрета на разработку LAWS был бы идеальным шагом, а не попыткой регулировать их развертывание и использование. Кроме того, не имеющие обязательной юридической силы Меры транспарентности и укрепления доверия (МТД) — это лишь промежуточные полумеры для борьбы с серьезной угрозой, с которой сегодня сталкивается мир. Необходим коллективный мораторий на использование ИИ в военных целях до тех пор, пока в качестве наиболее жизнеспособного решения не будет заключен юридически обязывающий документ.
Вся концепция сдерживания заключается в том, что такое оружие используется, чтобы удержать противника от удара. Если каким-либо образом выбор целей и принятие решений будет оставлено за оружием с ИИ, «сдерживание» может просто потерять смысл. В то же время ядерное табу — сохраняющееся с момента первого применения ядерного оружия США в 1945 году — может быть нарушено, если за процесс принятия решений будут отвечать машины.
Это показывает: ИИ уникальным образом изменит всю систему сдерживания и принуждения между государствами, обладающими ядерным оружием.