Плеер Mave Подкастов через iframe
Особенностью вооруженных конфликтов последних лет стала их цифровизация, в том числе рост числа киберопераций, рассказал Радио РБК на полях Global Cybersecurity Forum руководитель отдела вооружений и ведения боевых действий в юридическом отделе Международного Комитета Красного Креста (МККК) Лоран Жизель.
«Все большую проблему представляет использование искусственного интеллекта для принятия решений на войне. В результате мы видим все больший ущерб, который наносится гражданскому населению. И все больше вопросов к тому, не приводит ли это к еще большему нарушению норм международного гуманитарного права», — пояснил он.
По словам Жизеля, наиболее заметны изменения, вызванные применением ИИ. Сторонники таких систем считают, что искусственный интеллект позволяет принимать решения эффективнее и быстрее определять цели, однако на войне использование этих технологий «размывает ответственность человека за происходящее».
«Каждый раз, когда мы работаем с последствиями применения таких вооружений, мы видим, что боевые действия велись интенсивнее, а гражданское население и инфраструктура мирных городов страдают больше. Стоит помнить, что именно человек должен быть ответственным и подотчетным лицом в вопросе применения силы. Об этом прямо говорится в международном гуманитарном праве», — отметил Жизель.
МККК работает над тем, чтобы убедить государства принять новый договор, регулирующий применение автономных систем вооружений — барражирующих боеприпасов и дронов-камикадзе, использующих ИИ для автономного наведения. По словам Жизеля, МККК призывает страны принять договор, который запретил бы определенные виды таких систем: непредсказуемое автономное оружие и автономные системы, наносящие удары по людям, а не по технике.
«Насколько мне известно, пока нет доказательств, что такие вооружения уже есть на поле боя в нынешних конфликтах. Но очень важно запретить их сейчас, до того, как они попадут на фронт и принесут тяжелейшие гуманитарные последствия», — считает Жизель.
Что касается остальных автономных систем, необходимо прописать допустимые ситуации их применения, характер использования, типы целей, продолжительность и другие параметры, отметил эксперт. По мнению МККК, их допустимо применять только против четко определенных военных объектов (например, вражеского оружия), но не против гражданских объектов, которые впоследствии могут быть объявлены военной целью.
«Мы призвали государства принять такой международный договор к концу 2026 года», — сказал Жизель.
Отвечая на вопрос, будут ли войны будущего войнами дронов, Жизель отметил, что в обозримом будущем беспилотники не станут единственным типом вооружений: наряду с автоматическими системами сохранятся конфликты с широким применением боеприпасов, винтовок и стрелкового оружия.
Жизель также указал, что социальные сети усиливают распространение информации о конфликтах, из-за чего резко вырос объем дезинформации и разжигания ненависти. По его мнению, это ведет к дегуманизации противника.
«В долгосрочной перспективе это очень опасно, потому что война однажды закончится, а людям все равно придется продолжать жить вместе рядом друг с другом», — заключил он.
В конце февраля министр обороны США Пит Хегсет потребовал от гендиректора Anthropic Дарио Амодея под угрозой срыва контракта согласовать условия, на которых военные смогут использовать ИИ-модели компании. Об этом писала The Wall Street Journal. Амодей выпустил заявление, в котором подчеркнул, что компания отказалась выполнить условия, потому что предложенные алгоритмы использования ИИ-технологий могут «подорвать, а не защитить демократические ценности».
28 февраля глава OpenAI Сэм Альтман объявил, что компания достигла соглашения с Пентагоном об использовании ИИ-моделей в секретной сети. Он подчеркнул, что OpenAI заявила о своих принципах, касающихся запрета на массовую слежку внутри страны и ответственности человека за применение силы, в том числе в отношении автономных систем вооружения. По словам Альтмана, Пентагон согласился с этими принципами. Несмотря на заявления Альтмана, OpenAI, как писала Financial Times, столкнулась с давлением, а сотрудники выразили обеспокоенность как внутри компании, так и публично в социальных сетях.
1 марта The Wall Street Journal сообщила, что президент США Дональд Трамп использовал ИИ-инструменты, разработанные Anthropic, для того, чтобы нанести крупный авиаудар по Ирану. При этом накануне американский лидер запретил всем правительственным ведомствам использовать технологии Anthropic.
Через несколько дней Альтман заявил, что OpenAI внесет изменения в контракт с Пентагоном, добавив пункты, гарантирующие, что «система искусственного интеллекта не будет намеренно использоваться для внутренней слежки за гражданами США».

