Этика ИИ и закон об ИИ задают трудные вопросы об этом новом обещании создателей танцующих роботов, говорящих, что они предотвратят использование ИИ в качестве оружия

Возможно, на прошлой неделе вы видели в новостях или заметили в социальных сетях объявление некоторых производителей роботов о заявленных ими целях избежать использования ИИ в качестве оружия для роботов общего назначения. Через мгновение я расскажу вам подробности, так что не волнуйтесь, если вы не пронюхали об этом.

Реакция на это заявление была быстрой и, возможно, как это обычно бывает в нашем поляризованном обществе, была одновременно хвалебной, а временами насмешливо-критической или откровенно скептической.

Это история о двух мирах.

В одном мире некоторые говорят, что это именно то, что нам нужно для ответственный Разработчики роботов AI объявить.

Слава богу, что вы находитесь на правильной стороне проблемы, которая постепенно будет становиться все более заметной и тревожной. Эти симпатичные танцующие роботы вызывают беспокойство, потому что их довольно легко перенастроить так, чтобы они несли оружие и использовались самым худшим образом (вы можете убедиться в этом сами, зайдя в социальные сети, где есть множество видеороликов, демонстрирующих танцующих роботов, вооруженных пулеметами и другое вооружение).

Другая сторона этой медали гласит, что так называемый залог — не более чем маркетинговый ход или уловка по связям с общественностью (кстати, кто-нибудь знаком с разницей между залогом и пожертвованием?). Во всяком случае, сомневающиеся увещевают, что это сигнал необузданной добродетели в контексте танцующих роботов. Видите ли, оплакивать тот факт, что роботы общего назначения могут быть использованы в качестве оружия, безусловно, стоит и искренне добивается, хотя некоторые настаивают на том, что простое заявление о том, что производитель этого не сделает, скорее всего, пустое обещание.

В целом, весь этот вопрос поднимает довольно изрядный набор соображений по этике и закону об ИИ. Мы тщательно раскроем тему и увидим, насколько это двойной удар по этической и юридической трясине ИИ. Мой постоянный и обширный обзор этики ИИ и закона об ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

В ходе этого обсуждения я также буду ссылаться на свои предыдущие анализы опасностей использования ИИ в качестве оружия, такие как моя глубокая оценка в ссылка здесь. Возможно, вы захотите взглянуть на это выступление для получения дополнительных закулисных подробностей.

Открытое письмо, открывающее банку с червями

Давайте начнем этот анализ с тщательного пошагового изучения Открытого письма, недавно опубликованного шестью относительно известными передовыми производителями роботов, а именно Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics и Unitree. По большому счету, я предполагаю, что вы видели в основном роботов Boston Dynamics, таких как те, которые скачут на четвереньках. Они выглядят так, как будто они похожи на собак, и нам нравится видеть, как они бегают вокруг.

Как я уже неоднократно предупреждал ранее, использование таких «танцующих» роботов в качестве средства убеждения широкой публики в том, что эти роботы жеманны и очаровательны, к сожалению, вводит в заблуждение и приводит к многочисленным ловушкам их антропоморфизации. Мы начинаем думать об этих закаленных кусках металла и пластика, как если бы они были эквивалентом милой преданной собаки. Наша готовность принять этих роботов основана на ложном чувстве безопасности и уверенности. Конечно, вы должны зарабатывать деньги, и шансы на это увеличиваются, если вы шествуете вокруг танцующих роботов, но это, к сожалению, упускает или, по-видимому, скрывает реальный факт, что эти роботы являются роботами и что ИИ, управляющий роботами, может быть создан неправомерно. или пойти наперекосяк.

Подумайте об этих разветвлениях ИИ (отрывок из моей статьи о вооружении ИИ, найденной на ссылка здесь):

  • ИИ может столкнуться с ошибкой, из-за которой он сбивается с пути
  • ИИ может быть перегружен и не реагировать на блокировку
  • ИИ может содержать ошибки разработчиков, вызывающие нестабильное поведение
  • ИИ может быть поврежден имплантированным вирусом-злодеем
  • ИИ может быть захвачен киберхакерами в режиме реального времени
  • ИИ может считаться непредсказуемым из-за сложности
  • ИИ может вычислительно принять «неправильное» решение (относительно)
  • И т.д.

Это пункты, касающиеся ИИ, который действительно разработан с самого начала, чтобы делать правильные вещи.

Помимо этих соображений, вы должны включить системы ИИ, созданные с самого начала, чтобы делать плохие вещи. Вы можете иметь ИИ, созданный для полезных целей, часто называемый AI для хорошего. У вас также может быть ИИ, специально созданный для плохих целей, известный как AI для плохих. Кроме того, вы можете иметь AI для хорошего который испорчен или переделан в становление AI для плохих.

Между прочим, все это не имеет ничего общего с тем, что ИИ стал разумным, о чем я упоминаю, потому что некоторые продолжают восклицать, что сегодняшний ИИ либо разумен, либо находится на грани того, чтобы стать разумным. Не так. Я разбираю эти мифы в своем анализе на ссылка здесь.

Давайте тогда убедимся, что мы на одной волне в отношении природы сегодняшнего ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели порассуждать о разумном ИИ, эта дискуссия могла бы пойти в совершенно другом направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхинтеллектуальный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Я бы настоятельно рекомендовал, чтобы мы не придавали значения вещам и рассматривали сегодняшний вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

Будьте очень осторожны с антропоморфизацией современного ИИ.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Все это имеет особенно важные последствия для этики ИИ и предлагает удобное окно для извлеченных уроков (даже до того, как все уроки произойдут), когда дело доходит до попытки законодательно закрепить ИИ.

Помимо использования принципов этики ИИ в целом, возникает соответствующий вопрос о том, должны ли мы иметь законы, регулирующие различные виды использования ИИ. На федеральном уровне, уровне штатов и на местном уровне обсуждаются новые законы, касающиеся диапазона и характера разработки ИИ. Усилия по разработке и принятию таких законов носят постепенный характер. Этика ИИ служит, по крайней мере, временной мерой и почти наверняка в какой-то степени будет непосредственно включена в эти новые законы.

Имейте в виду, что некоторые категорически утверждают, что нам не нужны новые законы, касающиеся ИИ, и что наших существующих законов достаточно. Они предупреждают, что если мы примем некоторые из этих законов об ИИ, мы убьем золотого гуся, пресекая достижения в области ИИ, которые предлагают огромные социальные преимущества.

В предыдущих колонках я рассказывал о различных национальных и международных усилиях по разработке и принятию законов, регулирующих ИИ, см. ссылка здесь, Например. Я также рассмотрел различные принципы и руководства по этике ИИ, которые были определены и приняты различными странами, включая, например, усилия Организации Объединенных Наций, такие как свод этических норм ИИ ЮНЕСКО, принятый почти в 200 странах, см. ссылка здесь.

Вот полезный краеугольный список критериев или характеристик этического ИИ, касающихся систем ИИ, которые я ранее внимательно изучал:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Предполагается, что эти принципы этики ИИ должны серьезно использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ.

Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как уже подчеркивалось здесь, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна быть осведомлена и соблюдать этические предписания ИИ.

Теперь, когда я заложил полезную основу для подготовки к Открытому письму, мы готовы приступить к делу.

Официальное название темы Открытого письма:

  • Открытое письмо индустрии робототехники и нашим сообществам: роботы общего назначения не должны использоваться в качестве оружия(согласно размещенному в сети).

До сих пор так хорошо.

Название почти похоже на мороженое и яблочный пирог. Как кто-то может оспаривать это как давний призыв избегать использования роботов ИИ в качестве оружия?

Читайте дальше, чтобы увидеть.

Во-первых, в качестве материала для размышлений, вот официальный вступительный абзац Открытого письма:

  • «Мы являемся одной из ведущих мировых компаний, занимающихся внедрением в общество новых поколений передовой мобильной робототехники. Эти новые поколения роботов более доступны, проще в эксплуатации, более автономны, доступны и адаптируемы, чем предыдущие поколения, и способны перемещаться в места, ранее недоступные для автоматизированных или дистанционно управляемых технологий. Мы считаем, что передовые мобильные роботы принесут большую пользу обществу в качестве коллег по работе и компаньонов в наших домах» (согласно опубликованному в Интернете).

Солнечная сторона появления этих типов роботов заключается в том, что мы можем ожидать появления множества замечательных преимуществ. Насчет этого сомнений нет. У вас может быть робот в вашем доме, который может выполнять такие действия, как Джетсон, такие как уборка вашего дома, мытье посуды и другие дела по дому. У нас будут продвинутые роботы для использования на фабриках и производственных предприятиях. Роботы потенциально могут ползать или маневрировать в труднодоступных местах, например, когда рушится здание, и на кону стоит спасение человеческих жизней. И так далее.

Кроме того, вас может заинтересовать мой недавний критический обзор Tesla AI Day, на котором Илон Маск изобразил некие ходячие роботы как будущее для Tesla и общества, см. ссылка здесь.

Вернемся к делу. При серьезном обсуждении танцующих роботов или шагающих роботов мы должны внимательно учитывать компромиссы или общую рентабельность инвестиций (возврат инвестиций) такого использования ИИ. Мы не должны позволять себе чрезмерно увлекаться преимуществами, когда необходимо учитывать и издержки.

Блестящая новая игрушка может иметь довольно острые края.

Все это подстегивает важный, но несколько умалчиваемый момент, что отчасти причина, по которой сейчас возникает проблема вооружения ИИ, связана с продвижением ИИ к автономной деятельности. Обычно мы ожидали, что оружие, как правило, управляется человеком. Человек принимает решение, стрелять или задействовать оружие. Предположительно, мы можем привлечь этого человека к ответственности за свои действия.

ИИ, который разработан для автономной работы или который можно обмануть, по-видимому, исключит человека из цикла. Затем ИИ алгоритмически принимает вычислительные решения, которые могут привести к гибели или причинению вреда людям. Помимо очевидных опасений по поводу отсутствия контроля над ИИ, у вас также есть опасения, что нам может быть трудно возложить ответственность за действия ИИ. У нас нет человека, который был бы нашим очевидным подстрекателем.

Я понимаю, что некоторые считают, что мы должны просто и прямо возлагать на ИИ ответственность за свои действия, как если бы ИИ обрел разум или иным образом получил статус юридического лица (см. ссылка здесь). Это пока не сработает. Нам придется проследить ИИ до людей, которые либо его изобрели, либо использовали. Они, несомненно, попытаются юридически избежать ответственности, пытаясь утверждать, что ИИ вышел за рамки того, что они предполагали. Это растущее разногласие, с которым нам нужно иметь дело (см. мои работы по закону об искусственном интеллекте для понимания связанных с этим спорных вопросов).

Организация Объединенных Наций (ООН) через Конвенцию о конкретных видах обычного оружия (КОО) в Женеве установила одиннадцать не имеющих обязательной силы Руководящих принципов в отношении смертоносного автономного оружия, согласно официальному отчету, размещенному в Интернете (включая ссылки на соответствующие положения международного гуманитарного права или МГП) , включая:

а) международное гуманитарное право по-прежнему в полной мере применяется ко всем системам вооружений, включая потенциальную разработку и применение смертоносных автономных систем вооружений;

(b) Ответственность человека за решения об использовании систем вооружений должна быть сохранена, поскольку ответственность не может быть переложена на машины. Это следует учитывать на протяжении всего жизненного цикла системы вооружения;

c) человеко-машинное взаимодействие, которое может принимать различные формы и реализовываться на различных стадиях жизненного цикла оружия, должно гарантировать, что потенциальное применение систем вооружений, основанных на новейших технологиях, в области смертоносных автономных систем вооружения будет соблюдение применимого международного права, в частности МГП. При определении качества и степени взаимодействия человека и машины следует учитывать ряд факторов, включая оперативный контекст, а также характеристики и возможности системы вооружения в целом;

d) ответственность за разработку, развертывание и использование любой появляющейся системы вооружений в рамках КНО должна быть обеспечена в соответствии с применимыми нормами международного права, в том числе посредством эксплуатации таких систем в рамках ответственной цепочки человеческого управления и контроля;

e) в соответствии с обязательствами государств по международному праву при изучении, разработке, приобретении или принятии на вооружение нового оружия, средств или метода ведения войны должно быть установлено, будет ли его применение в некоторых или во всех обстоятельствах запрещены международным правом;

f) при разработке или приобретении новых систем вооружений на основе новых технологий в области смертоносных автономных систем вооружений, физической безопасности, надлежащих нефизических гарантий (включая киберзащиту от взлома или подмены данных) риск приобретения террористическими группами и следует учитывать риск распространения;

g) оценки рисков и меры по их снижению должны быть частью цикла проектирования, разработки, испытаний и развертывания новых технологий в любых системах вооружений;

h) следует уделить внимание использованию новейших технологий в области смертоносных автономных систем оружия при обеспечении соблюдения МГП и других применимых международно-правовых обязательств;

i) при разработке возможных мер политики не следует антропоморфизировать новые технологии в области автономных систем смертоносного оружия;

j) обсуждения и любые потенциальные политические меры, принимаемые в контексте КНО, не должны препятствовать прогрессу или доступу к мирному использованию интеллектуальных автономных технологий;

k) КНО предлагает надлежащую основу для рассмотрения вопроса о новых технологиях в области смертоносных автономных систем вооружений в контексте целей и задач Конвенции, которая стремится установить баланс между военной необходимостью и гуманитарными соображениями.

Эти и другие различные законы войны и законы вооруженных конфликтов, или МГП (международные гуманитарные законы), служат жизненно важным и всегда многообещающим руководством для рассмотрения того, что мы могли бы попытаться сделать с появлением автономных систем, которые вооружены оружием, будь то краеугольным камнем проектированием или постфактум методами.

Некоторые говорят, что мы должны прямо запретить те автономные системы ИИ, которые можно использовать в качестве оружия. Правильно, мир должен твердо стоять на своем и решительно потребовать, чтобы автономные системы ИИ никогда не использовались в качестве оружия. Будет введен полный запрет. Конец истории. Полная остановка, точка.

Что ж, можно искренне пожелать, чтобы запрет на летальные боевые автономные системы соблюдался неукоснительно и послушно. Проблема в том, что в любом из самых искренних запретов скрыто много пространства для маневра. Как говорится, правила созданы для того, чтобы их нарушать. Вы можете поспорить, что там, где дела идут небрежно, шушера выискивает пробелы и пытается подмигнуть, чтобы обойти правила.

Вот некоторые потенциальные лазейки, заслуживающие внимания:

  • Заявления о несмертельном. Сделайте несмертельные автономные системы оружия (казалось бы, ничего страшного, так как они находятся за пределами запрета), которые затем можно в считанные секунды превратить в смертоносные (вы окажетесь за пределами запрета только в последнюю минуту).
  • Претензии только к автономной системе. Поддержите запрет, не создавая автономные системы, ориентированные на летальные действия, тем временем добивайтесь больших успехов в разработке повседневных автономных систем, которые (пока) не вооружаются, но которые вы можете за копейки переоборудовать в военизированные.
  • Претензии Not Integrated As One. Создавайте автономные системы, которые вообще не вооружены, а когда придет время, совместите их с оружием, чтобы вы могли яростно утверждать, что это два отдельных элемента, и, следовательно, утверждать, что они не подпадают под категорию «все в одном». автономная система вооружения или ее двоюродный брат.
  • Утверждает, что не является автономным. Сделать систему вооружения, которая, кажется, не имеет автономных возможностей. Оставьте место в этой предположительно неавтономной системе для снижения автономии на основе ИИ. При необходимости подключите автономность, и вы готовы к работе (до тех пор, казалось бы, вы не нарушали запрет).
  • Другие контрактные услуги

Есть много других выраженных трудностей с попытками прямого запрета смертоносных автономных систем вооружения. Я расскажу еще о нескольких из них.

Некоторые эксперты утверждают, что запрет не особенно полезен, и вместо этого должны быть нормативные положения. Идея состоит в том, что эти приспособления будут разрешены, но строго контролироваться. Изложен перечень законных видов использования, а также законные способы нацеливания, законные типы возможностей, законная пропорциональность и тому подобное.

По их мнению, прямой запрет — это как засунуть голову в песок и притвориться, что слона в комнате не существует. Это утверждение, тем не менее, вызывает бурю эмоций у тех, кто возражает, аргументируя это тем, что, вводя запрет, вы можете значительно уменьшить искушение использовать такие системы. Конечно, некоторые будут выставлять напоказ запрет, но, по крайней мере, мы надеемся, что большинство этого не сделает. Затем вы можете сосредоточить свое внимание на щеголях и не должны расщеплять свое внимание на всех.

Круг за кругом идут эти дебаты.

Еще одна часто упоминаемая проблема заключается в том, что даже если хорошие соблюдают запрет, плохие этого не сделают. Это ставит добро в паршивое положение. У плохих будут такие автономные системы с вооружением, а у хороших — нет. Как только выяснится, что они есть у плохих, будет слишком поздно, чтобы хорошие наверстали упущенное. Короче говоря, единственное разумное, что нужно сделать, — это приготовиться к огню.

Существует также классический спор о сдерживании. Если хорошие стороны решат создать вооруженные автономные системы, это можно использовать, чтобы удержать плохих от попыток вступить в драку. Либо хорошие будут лучше вооружены и, таким образом, отговорят плохих, либо хорошие будут готовы, когда плохие, возможно, обнаружат, что они тайно разрабатывали эти системы все это время.

Противодействие этим противоречиям состоит в том, что, создавая автономные системы с вооружением, вы ведете гонку вооружений. Другая сторона будет стремиться получить то же самое. Даже если они технологически неспособны создать такие системы заново, теперь они смогут украсть планы «хороших», реконструировать высокотехнологичные нутро или имитировать то, что им кажется проверенным временем. способ выполнить работу.

Ага, парочка, все это могло бы привести к уменьшению конфликтов по видимости взаимных. Если сторона А знает, что у стороны Б есть эти смертоносные автономные системы, а сторона Б знает, что они есть у стороны А, они могут сидеть спокойно и не вступать в драку. У этого есть та отчетливая аура вибраций гарантированного взаимного уничтожения (БЕЗУМИЕ).

И так далее.

Внимательно смотрим на второй абзац

Мы уже рассмотрели здесь много вопросов и пока рассмотрели только первый или вступительный абзац Открытого письма (всего абзацев четыре).

Пришло время взглянуть на второй абзац, вот он:

  • «Как и в случае с любой новой технологией, предлагающей новые возможности, появление передовых мобильных роботов дает возможность злоупотребления ими. Ненадежные люди могут использовать их для нарушения гражданских прав или для угроз, причинения вреда или запугивания других. Одной из областей, вызывающих особую озабоченность, является вооружение. Мы считаем, что добавление оружия к роботам, управляемым дистанционно или автономно, широко доступным для населения и способным перемещаться в ранее недоступные места, где живут и работают люди, создает новые риски причинения вреда и серьезные этические проблемы. Применение этих новых роботов в качестве оружия также нанесет ущерб общественному доверию к технологии таким образом, что это нанесет ущерб огромным преимуществам, которые они принесут обществу. По этим причинам мы не поддерживаем вооружение наших универсальных роботов повышенной мобильности. Для тех из нас, кто говорил по этому вопросу в прошлом, и для тех, кто занимается этим впервые, теперь мы чувствуем новую актуальность в свете растущего общественного беспокойства в последние месяцы, вызванного небольшим количеством людей, которые явно предали гласности свои импровизированные усилия по оснащению имеющихся в продаже роботов оружием» (согласно опубликованному в Интернете).

Прочитав этот второй абзац, я надеюсь, вы увидите, как моя предыдущая беседа об использовании ИИ в качестве оружия выходит на первый план.

Рассмотрим несколько дополнительных моментов.

Некоторые опасения по поводу конкретного аспекта формулировки, который вызвал у некоторых опасения, заключается в том, что в повествовании, похоже, подчеркивается, что «ненадежные люди» могут злоупотреблять этими роботами с искусственным интеллектом. Да, действительно, это могут быть плохие люди или злодеи, совершающие подлые действия, которые будут «злоупотреблять» ИИ-роботами.

В то же время, как указывалось в начале этого обсуждения, мы также должны четко указать, что сам ИИ может пойти не так, возможно, из-за встроенных ошибок или ошибок и других подобных осложнений. Выражается озабоченность тем, что только подчеркивая шансы ненадежные люди заключается в том, что он, кажется, игнорирует другие неблагоприятные возможности. Хотя большинство компаний и поставщиков ИИ не хотят этого признавать, существует множество проблем с системами ИИ, которые могут подорвать безопасность и надежность автономных систем. О моем освещении безопасности ИИ и необходимости строгих и доказуемых мер безопасности см. ссылка здесь, Например.

Еще один примечательный момент, возникший среди тех, кто изучил Открытое письмо, влечет за собой включенное утверждение о том, что это может в конечном итоге подорвать общественное доверие, связанное с роботами с искусственным интеллектом.

С одной стороны, это справедливое утверждение. Если роботы с искусственным интеллектом будут использоваться для злых торгов, вы можете поспорить, что публика будет в полном восторге. Когда общественность взбесится, вы можете поспорить, что законодатели бросятся в набег и попытаются принять законы, которые подавляют роботов с искусственным интеллектом и производителей роботов с искусственным интеллектом. Это, в свою очередь, может нанести ущерб отрасли робототехники ИИ, если законы будут всеобъемлющими и прекратят усилия, связанные с преимуществами роботов ИИ. В некотором смысле вместе с водой может выплеснуться и ребенок (старое выражение, вероятно, заслуживающее того, чтобы его выбросить).

Очевидный вопрос также заключается в том, является ли это утверждение о предотвращении снижения общественного доверия к роботам с искусственным интеллектом своего рода корыстным кредо или же оно служит благу всех нас (может ли быть и то, и другое?).

Вам решать.

Теперь мы подошли к особенно содержательной части Открытого письма:

  • «Мы обязуемся, что не будем вооружать наших роботов общего назначения с повышенной мобильностью или разрабатываемое нами программное обеспечение, которое позволяет использовать передовую робототехнику, и мы не будем поддерживать других в этом. Когда это возможно, мы тщательно изучаем предполагаемые приложения наших клиентов, чтобы избежать возможного использования в качестве оружия. Мы также обязуемся изучить возможность разработки технологических функций, которые могли бы смягчить или уменьшить эти риски. Чтобы было ясно, мы не возражаем против существующих технологий, которые страны и их правительственные учреждения используют для самозащиты и соблюдения своих законов» (согласно опубликованному в Интернете).

Мы можем распаковать это.

Сядьте и подготовьтесь соответственно.

Готовы ли вы к огненной поляризации?

С положительной стороны, некоторые громко заявляют, что производители роботов с искусственным интеллектом возьмут на себя такое обещание. Похоже, что эти производители роботов, к счастью, будут стремиться не вооружать своих роботов «повышенной мобильности общего назначения». Кроме того, в Открытом письме говорится, что они не будут поддерживать других, которые это сделают.

Критики задаются вопросом, не происходит ли здесь какой-то умной словесной обработки.

Например, где начинается и заканчивается «продвинутая мобильность»? Если производитель роботов разрабатывает декриминализовано-мобильный робот с искусственным интеллектом, а не продвинутый (что является неопределенной частью технического жаргона), исключается ли он из сферы действия того, что будет не быть вооружённым? Таким образом, очевидно, можно вооружать роботов с искусственным интеллектом с простой подвижностью, если только они не являются так называемыми продвинутый.

То же самое касается формулировки роботов общего назначения. Если робот с искусственным интеллектом разработан специально для вооружения и поэтому не является общее назначение робот, станет ли это жизнеспособным исключением из области видимости?

Вы можете придираться к этим придиркам и горячо утверждать, что это всего лишь открытое письмо, а не пятидесятистраничный юридический документ, в котором расписаны все закоулки.

Это подводит нас к выраженному некоторыми беспокойству на макроуровне. По сути, что означает «залог»?

Некоторые спрашивают, а где говядина?

Компания, которая дает такое обещание, по-видимому, делает это без какой-либо реальной заинтересованности в игре. Если высшее руководство любой фирмы, подписавшейся под этим обещанием, решит больше не выполнять его, что произойдет с этой фирмой? Будут ли руководители без промедления уволены? Закроется ли компания и будет ли она извиняться за то, что нарушила обещание? И так далее.

Насколько можно сделать вывод, за любое нарушение залога не существует особого наказания или наказания.

Вы можете возразить, что существует вероятность ущерба для репутации. Фирма, дающая залог, может быть оштрафована на рынке за то, что она дала обещание, которое она больше не соблюдает. Конечно, это также предполагает, что люди будут помнить, что залог был сделан. Он также предполагает, что нарушение залога будет каким-то образом обнаружено (отчетливо кажется маловероятным, что фирма расскажет все, если она это сделает). Нарушителя обещания придется вызвать, и все же такая проблема может стать простым шумом в продолжающемся цунами новостей о производителях робототехники с искусственным интеллектом.

Рассмотрим другой ракурс, который появился.

Фирма, дающая залог, покупается какой-то более крупной фирмой. Более крупная фирма решает начать превращать универсальных роботов повышенной мобильности в версии с искусственным интеллектом.

Является ли это нарушением залога?

Более крупная фирма может настаивать на том, что это не является нарушением, поскольку они (более крупная фирма) никогда не давали залога. Между тем, безобидные роботы с искусственным интеллектом, которые меньшая фирма собрала и разработала, делая это с, казалось бы, самыми альтруистическими намерениями, почти за одну ночь превращаются в оружие.

Это как бы подрывает обещание, хотя можно сказать, что небольшая фирма не знала, что это когда-нибудь произойдет. Они были искренни в своем желании. То, что решила сделать более крупная фирма-покупатель, было вне их контроля.

Некоторые также спрашивают, есть ли в этом какая-то юридическая ответственность.

Залоговая фирма решает через несколько месяцев, что она не собирается выполнять обещание. Они изменили свое мнение. Можно ли предъявить иск фирме за то, что она отказалась от данного залога? Кто бы подал в суд? Что может быть основанием для иска? Возникает множество юридических вопросов. Как говорится, подать в суд можно практически на кого угодно, но выиграете ли вы – это совсем другое дело.

Подумайте об этом по-другому. Фирма-поручитель получает возможность заключить действительно крупную сделку, продав целую кучу своих передовых мобильных роботов общего назначения крупной компании, которая готова платить бешеные деньги, чтобы получить роботов. Это одна из тех сделок на миллионы долларов, которые происходят раз в жизни.

Что должна делать робототехническая компания ИИ?

Если компания, предлагающая робототехнику с искусственным интеллектом, торгуется на бирже, они почти наверняка будут стремиться к продаже (то же самое можно сказать и о частной фирме, хотя и не совсем так). Представьте, что залогодающая фирма обеспокоена тем, что покупатель может попытаться использовать роботов в качестве оружия, хотя, допустим, такого обсуждения на столе нет. Просто ходят слухи, что это может сделать покупатель.

Соответственно, компания-заказчик указывает в своей лицензии, что роботы не должны использоваться в качестве оружия. Покупатель возражает против этого языка и отходит от покупки.

От какой прибыли только что отказалась фирма, занимающаяся робототехникой искусственного интеллекта?

Есть ли точка, в которой фактическая прибыль перевешивает включение требования лицензионного ограничения (или, возможно, юридическую формулировку ограничения, чтобы оставить пространство для маневра и все же сделать сделку)? Я думаю, что вы можете видеть затруднительное положение. Тонны таких сценариев легко вызываются в воображении. Вопрос в том, будет ли это обещание иметь зубы. Если да, то какие зубы?

Короче говоря, как упоминалось в начале этого обсуждения, некоторые воодушевлены тем, что дается такое обещание, в то время как другие имеют более смутное представление о том, выдержит ли это обещание воду.

Мы идем дальше.

Получение залога

В четвертом и последнем абзаце Открытого письма говорится следующее:

  • «Мы понимаем, что одной нашей приверженности недостаточно для полного устранения этих рисков, и поэтому мы призываем политиков сотрудничать с нами, чтобы продвигать безопасное использование этих роботов и запрещать их неправильное использование. Мы также призываем каждую организацию, разработчика, исследователя и пользователя в сообществе робототехники взять на себя аналогичные обязательства не создавать, не разрешать, не поддерживать и не разрешать установку оружия на таких роботов. Мы убеждены, что польза от этих технологий для человечества значительно перевешивает риск неправильного использования, и мы с нетерпением ждем светлого будущего, в котором люди и роботы будут работать бок о бок для решения некоторых мировых проблем» (согласно публикации в Интернете).

Эта последняя часть Открытого письма содержит несколько дополнительных элементов, вызвавших гнев.

Некоторые утверждают, что обращение к политикам может быть благоразумным или опрометчивым. Вы можете получить политиков, которые не разбираются в этих вопросах, которые затем прибегают к классической спешке с суждением и создают законы и правила, которые узурпируют прогресс в области роботов с искусственным интеллектом. Согласно ранее сделанному замечанию, возможно, инновации, которые продвигают вперед роботизированные достижения ИИ, будут подорваны или растоптаны.

Лучше быть уверенным, что вы знаете, о чем просите, говорят критики.

Конечно, контраргументом является то, что в нарративе четко говорится, что политики должны работать с фирмами, занимающимися робототехникой ИИ, чтобы выяснить, как предположительно разумно создавать такие законы и правила. Противодействие контраргументу состоит в том, что политики могут считаться сочувствующими создателям ИИ-робототехники, если они удовлетворяют их прихоти. Противодействие контраргументу состоит в том, что, естественно, необходимо работать с теми, кто разбирается в технологии, иначе результат потенциально будет неправильным. И т.п.

Возможно, из-за придирок, у некоторых была изжога из-за строки, призывающей всех дать одинаковые обещания не прикрепление оружия до универсальных роботов повышенной мобильности. Ключевое слово есть слово прикрепление. Если кто-то создает робота с искусственным интеллектом, который включает в себя или плавно встраивает оружие, это, кажется, обходит формулировку прикрепление что-нибудь. Вы можете видеть это сейчас, кто-то яростно утверждает, что оружие не прикреплено, оно полностью является неотъемлемой частью робота ИИ. Преодолевайте это, восклицают они, мы не входим в рамки этого обещания, и они могли бы даже иначе сказать, что они входили.

Это вызывает еще одну жалобу на отсутствие липкости залога.

Может ли фирма или вообще кто-либо, решивший дать такое обещание, объявить себя незаложенным в любое время, когда они пожелают это сделать и по какой бы то ни было причине, по которой они этого желают?

Видимо так.

Вокруг много болтовни о обещаниях и о том, какое влияние они придают.

Заключение

Да, вы могли бы сказать, что эти компании, которые пытаются поступать правильно, получают удары за то, что пытаются поступать правильно.

Что произошло с нашим миром?

Любому, кто дает такое обещание, следует дать презумпцию невиновности, могли бы вы страстно возразить. Они выходят в общественную сферу, чтобы внести смелый и жизненно важный вклад. Если мы начнем порочить их за это, это, несомненно, усугубит ситуацию. Никто не захочет давать такое обещание. Фирмы и прочие даже пытаться не будут. Они спрячутся и не предупредят общество о том, во что могут опасно превратиться эти милые танцующие роботы.

Скептики заявляют, что способ заставить общество поумнеть влечет за собой другие действия, такие как отказ от причудливого акта демонстрации резвящихся танцующих роботов с искусственным интеллектом. Или, по крайней мере, сделать это более сбалансированным действием. Например, вместо того, чтобы просто подражать любимым верным домашним животным собакам, проиллюстрируйте, как танцующие роботы могут быть больше похожи на диких разъяренных злых волков, которые могут разорвать людей в клочья без колебаний.

Это привлечет больше внимания, чем обещания, умоляют они.

Обещания, несомненно, могут быть настоящей загадкой.

Как красноречиво заявил Махатма Ганди: «Независимо от того, насколько явным является обещание, люди будут переворачивать и искажать текст в соответствии со своими собственными целями».

Возможно, чтобы закончить здесь на воодушевляющей ноте, Томас Джефферсон сказал следующее о клятвах: «Мы взаимно обещаем друг другу нашу жизнь, наше состояние и нашу священную честь».

Когда дело доходит до роботов с искусственным интеллектом, их автономии, их вооружения и тому подобного, мы все в конечном итоге будем участвовать в этом вместе. Нашим взаимным обещанием должно быть, по крайней мере, то, что мы будем держать эти вопросы в центре внимания, мы будем стремиться найти способы справиться с этими достижениями и каким-то образом найти способ обеспечить нашу честь, наше состояние и нашу жизнь.

Можем ли мы пообещать это?

Я надеюсь на это.

Источник: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- производители роботов говорят, что они предотвратят использование ИИ-оружия/