Какова обновленная политика Пентагона в отношении роботов-убийц?

Пентагон опубликовал заявление обновление Директивы 3000.09, который охватывает то, что они называют Автономность систем вооружения и другие звонят 'убийственные роботы.' Современные дроны, такие как ВВС и ЦРУ Жнецы MQ-9 управляются с помощью дистанционного управления: человек сидя перед видеоэкраном определяет цели на земле на расстоянии тысяч миль, помещает их в перекрестие и выпускает Ракета Адского Пламени или другое оружие. С автономным оружием все по-другому: оно выбирает цели самостоятельно, без вмешательства человека. Необходимы четкие правила относительно того, когда и как их можно использовать, и новая директива приближает их на шаг.

Десять лет назад, когда была выпущена первая версия 3000.09, автономное оружие выглядело как научная фантастика. Теперь они вполне реальны. ООН утверждала, что Поставленные Турцией дроны атаковали цели автономно в Ливии в 2020 году, а Россия сейчас размещает барражирующие боеприпасы на Украине с автономные возможности.

Многие активисты, такие как Кампания, чтобы остановить роботов-убийцхотят полного запрета на автономное оружие, настаивая на том, что любое дистанционное оружие остается под запретом. значимый человеческий контроль во все времена. В ООН обсуждают, как контролировать такое оружие в течение многих лет.

Однако, как ясно следует из новой директивы, Пентагон придерживается другой линии.

«Министерство обороны последовательно выступает против политического стандарта «значимого человеческого контроля», когда речь идет как об автономных системах, так и о системах искусственного интеллекта», Грегори Аллен, директор проекта по управлению ИИ в Центр стратегических и международных исследований, скажи мне. «Предпочтительным термином Министерства обороны является «соответствующий уровень человеческого суждения», который отражает тот факт, что в некоторых случаях (например, автономные самолеты наблюдения и некоторые виды автономного кибероружия) соответствующий уровень человеческого контроля может быть практически нулевым. ».

Какое автономное оружие будет разрешено при каких обстоятельствах? Аллен считает, что предыдущая версия директивы была настолько неясной, что препятствовала любому развитию в этой области.

«Замешательство было настолько широко распространено, в том числе среди некоторых высокопоставленных руководителей Министерства обороны, что чиновники воздерживались от разработки некоторых систем, которые не только были разрешены политикой, но и прямо освобождены от требований проверки со стороны высшего руководства», — говорит Аллен.

Ни одно оружие не было представлено на рассмотрение автономного оружия, предусмотренного первоначальным документом 3000.09, за десять лет с момента его публикации.

Аллен написал эссе на эту тему для CSIS в прошлом году, описывая четыре области, над которыми необходимо работать: формальное определение автономных систем вооружения, объяснение того, что означает «с поддержкой искусственного интеллекта» для политики, как процесс обзора будет обрабатывать переподготовку моделей машинного обучения и разъяснение того, какие типы оружия должны быть пройти сложный процесс проверки.

«Министерство обороны внедрило их все», — говорит Аллен.

В принципе, это должно гарантировать то, что Министерство обороны называет «твердой и постоянной приверженностью быть прозрачным мировым лидером в установлении ответственной политики в отношении военного использования автономных систем».

Тем не менее, есть некоторые дополнения, которые можно рассматривать как лазейки, такие как освобождение от высшего контроля для автономных дронов, защищающих оружие, которые не нацелены на людей («антиматериальное оружие»), но которым будет разрешено нацеливаться на ракеты и другие дроны. и, возможно, другие системы.

«Слово «защищать» выполняет огромную работу», Зак Калленборн- рассказал мне научный сотрудник Школы политики и управления им. Шара при Университете Джорджа Мейсона. «Если дрон действует на территории противника, практически любое оружие может быть истолковано как «защищающее» платформу».

Калленборн также отмечает, что, хотя эффективно автономное оружие, такое как наземные мины, используется уже более века, ситуация быстро меняется из-за достижений в области искусственного интеллекта и, в частности, машинного обучения. Они породили системы, которые очень эффективны, но технически хрупкий – когда они терпят неудачу, они терпят эффектную неудачу, чего не сделал бы, например, ни один человек. принять черепаху за винтовку.

«Автономность посредством ИИ определенно заслуживает большего беспокойства, учитывая хрупкость и необъяснимость доминирующих в настоящее время подходов», — говорит Калленборн.

Обновление не большое. Но это демонстрирует постоянную приверженность Пентагона разработке эффективного автономного оружия и веру в то, что оно может соответствовать требованиям. международное гуманитарное право — отличать гражданских лиц от военнослужащих, стремясь избежать причинения вреда гражданскому населению и применяя только соразмерную и необходимую силу.

Участники кампании полагают, что ИИ не будет обладать необходимым пониманием, чтобы выносить моральные суждения во время войны, и рискует создать мир, в котором война автоматизирована, а люди больше не контролируют ситуацию. Другие полагают, что американские военные будут превосходят противники с автономным оружием если только ИИ не будет включен на тактическом уровне и не будет задействовано слишком много людей замедляет военных роботов.

Спор, скорее всего, продолжится даже тогда, когда начнет появляться автономное оружие, и за его результатами будут внимательно следить. В любом случае, похоже, роботы-убийцы приближаются.

Источник: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/