Этика ИИ и закон об ИИ разъясняют, что на самом деле является заслуживающим доверия ИИ

Доверие решает все, так они говорят.

Известный философ Лао-Цзы сказал, что тем, кто недостаточно доверяет, не будут доверять. Эрнест Хемингуэй, уважаемый писатель, заявил, что лучший способ узнать, можете ли вы кому-то доверять, — это довериться ему.

Между тем, кажется, что доверие и ценно, и хрупко. Доверие может рухнуть, как карточный домик, или внезапно лопнуть, как лопнувший воздушный шар.

Древнегреческий трагик Софокл утверждал, что доверие умирает, а недоверие расцветает. Французский философ и математик Декарт утверждал, что благоразумно никогда не доверять полностью тем, кто обманул нас хотя бы однажды. Миллиардер и выдающийся бизнес-инвестор Уоррен Баффет увещевал, что требуется двадцать лет, чтобы создать надежную репутацию, и пять минут, чтобы ее разрушить.

Вы можете быть удивлены, узнав, что все эти различные взгляды и провокационные мнения о доверии имеют решающее значение для появления искусственного интеллекта (ИИ).

Да, есть что-то остро упоминаемое как надежный ИИ в наши дни это продолжает привлекать чертовски много внимания, включая заламывающие руки освистывания из области ИИ, а также бурные вспышки со стороны тех, кто не имеет отношения к сфере ИИ. Общее понятие предполагает, будет ли общество готово доверять таким системам, как ИИ.

Предположительно, если общество не будет или не сможет доверять ИИ, есть вероятность, что системы ИИ не получат поддержки. ИИ, каким мы его знаем в настоящее время, будет отодвинут в сторону и просто будет собирать пыль. Удивительно, но ИИ может оказаться на свалке, исторически низведенной до уровня отчаянно пытавшегося, но поразительно проваленного высокотехнологичного эксперимента. Любые усилия по возрождению ИИ потенциально могут столкнуться с огромной тяжелой битвой и будут остановлены всевозможными возражениями и открытыми протестами. Якобы из-за недоверия к ИИ.

Что это будет, мы должны доверять ИИ, или мы не должны доверять ИИ?

По сути, действительно ли у нас будет надежный ИИ?

Это бывшие и нерешенные вопросы. Распаковываем.

Этика ИИ и борьба за надежный ИИ

Многие специалисты по ИИ верят, что разработчики систем ИИ могут завоевать доверие к ИИ, правильно разработав заслуживающий доверия ИИ. Суть в том, что вы не можете надеяться завоевать доверие, если ИИ не кажется заслуживающим доверия с самого начала. Создавая системы ИИ таким образом, который считается заслуживающим доверия, есть большая вероятность того, что люди примут ИИ и примут его использование.

Одно беспокойство, которое уже беспокоит это заслуживающее доверия соображение об ИИ, заключается в том, что мы, возможно, уже находимся в дефицит общественного доверия когда дело доходит до ИИ. Можно сказать, что искусственный интеллект, который мы уже видели, вырыл яму и разбрасывал доверие в огромных количествах. Таким образом, вместо того, чтобы начать с какой-то достаточной базы доверия, ИИ придется поразительно преодолевать дефицит, цепляясь за каждую желаемую унцию дополнительного доверия, которое потребуется, чтобы убедить людей в том, что ИИ действительно заслуживает доверия.

В этот вызов входит этика ИИ и закон об ИИ.

Этика ИИ и Закон об ИИ изо всех сил пытаются выяснить, что нужно сделать, чтобы сделать ИИ заслуживающим доверия. Некоторые предполагают, что существует формула или железные законы, которые вознесут ИИ на заслуживающие доверия небеса. Другие указывают, что потребуется тяжелая работа и последовательное и неуклонное соблюдение принципов этики и закона об ИИ, чтобы завоевать хваленое доверие общества.

Современная загадка о доверии к ИИ сама по себе не нова.

Можно легко вернуться в конец 1990-х годов и проследить зарождение искомого стремления к «доверенным вычислениям» именно с тех дней. Это была крупномасштабная попытка технологической индустрии выяснить, можно ли сделать все компьютеры таким образом, чтобы общество считало их заслуживающими доверия.

Ключевые вопросы состояли из:

  • Можно ли сделать компьютерное оборудование таким, чтобы оно заслуживало доверия?
  • Можно ли создать программное обеспечение таким образом, чтобы оно заслуживало доверия?
  • Можем ли мы создать глобальные сетевые компьютеры, которым можно доверять?
  • И так далее.

Преобладающее мнение тогда и по сей день заключается в том, что надежные вычисления остаются своего рода святым Граалем, который, к сожалению, все еще не совсем в пределах нашей досягаемости (как отмечается в статье под названием «Надежный ИИ» в журнале Связь ACM). Можно с уверенностью утверждать, что ИИ — это еще один компонент обеспечения надежности вычислений, однако ИИ делает поиск доверия еще более сложным и неопределенным. ИИ стал потенциальным спойлером в борьбе за надежные вычисления. Возможно, самое слабое звено в цепи, так сказать.

Давайте кратко рассмотрим, почему ИИ вызвал у нас опасения, что ему нельзя доверять. Кроме того, мы изучим принципы этики ИИ, которые, как мы надеемся, помогут укрепить и без того полуподводное предполагаемое доверие (или клокочущее недоверие) к сегодняшнему ИИ. Мой постоянный и обширный обзор этики ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Один конкретный сегмент или часть этики ИИ, которая привлекает большое внимание средств массовой информации, состоит из ИИ, который демонстрирует неблагоприятные предубеждения и несправедливость. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в неэтичную пропасть (см. мой анализ таких возможностей на ссылка здесь).

Через мгновение я поделюсь с вами некоторыми всеобъемлющими принципами, лежащими в основе этики ИИ. Есть много таких списков, плавающих то здесь, то там. Можно сказать, что единого списка универсальной привлекательности и согласованности пока не существует. Это неприятная новость. Хорошая новость заключается в том, что, по крайней мере, существуют легкодоступные списки этики ИИ, и они, как правило, очень похожи. Все это говорит о том, что с помощью своего рода обоснованной конвергенции мы находим путь к общей общности того, из чего состоит этика ИИ.

Во-первых, давайте кратко рассмотрим некоторые из общих этических принципов ИИ, чтобы проиллюстрировать, что должно быть жизненно важным соображением для любого, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологий, процессов разработки и методов работы, применимых к возможностям ИИ, включая прозрачные и проверяемые методологии, источники данных, процедуры проектирования и документацию.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только кодеры» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как указывалось ранее, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна разбираться в принципах этики ИИ и соблюдать их.

Давайте также убедимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели дико рассуждать о чувствующий AI, эта дискуссия может пойти в совершенно ином направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхразумный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Давайте будем более приземленными и рассмотрим современный вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Давайте свяжем это с вопросом о надежном ИИ.

Мы определенно не готовы доверять ИИ, который демонстрирует неблагоприятные предубеждения и дискриминационные действия. В этом случае мы считаем, что такой ИИ явно не заслуживает доверия, поэтому мы склоняемся к активному недоверию к ИИ. Не перебарщивая с антропоморфным сравнением (сейчас я расскажу больше об антропоморфизации ИИ), человек, демонстрирующий неблагоприятные предубеждения, также будет считаться не особенно заслуживающим доверия.

Копание в доверии и благонадежности

Возможно, нам следует взглянуть на то, что мы имеем в виду, когда утверждаем, что доверяем или не доверяем кому-то или чему-то. Во-первых, рассмотрим несколько повседневных словарных определений доверия.

Примеры того, что по определению означает доверие:

  • Уверенная уверенность в характере, способностях, силе или правде кого-то или чего-то (онлайн-словарь Merriam-Webster).
  • Опора на целостность, силу, способность, поручительство и т. д. человека или вещи (Dictionary.com)
  • Твердая вера в надежность, правду, способности или силу кого-то или чего-то (онлайн-словарь Oxford Languages).

Я хотел бы отметить, что все эти определения относятся к «кому-то», а также относятся к «чему-то» как к потенциально заслуживающему доверия. Это примечательно, поскольку некоторые могут настаивать на том, что мы доверяем только людям и что акт доверия зарезервирован исключительно для человечества как нашей цели доверия. Не так. Вы можете доверять своему кухонному тостеру. Если вам кажется, что он надежно произносит ваш тост и работает для этого регулярно, вы, безусловно, можете иметь видимость доверия к тому, действительно ли тостер заслуживает доверия.

В том же духе ИИ также может быть предметом нашей точки зрения доверия. Скорее всего, доверие, связанное с ИИ, будет намного сложнее, чем, скажем, обычный тостер. Тостер обычно может выполнять только несколько действий. Система ИИ, вероятно, будет намного сложнее и, по-видимому, будет работать менее прозрачно. Наша способность оценивать и подтверждать надежность ИИ должна быть намного сложнее и предлагать различные проблемы.

Говорят, что типичная система ИИ не только более сложная, но и недетерминированная и потенциально саморегулирующаяся или самонастраивающаяся. Мы можем кратко исследовать это понятие.

Детерминированная машина имеет тенденцию делать одни и те же действия снова и снова, предсказуемо и с четко различимой моделью того, как она работает. Можно сказать, что обычный тостер поджаривает примерно одинаково и имеет элементы управления поджариванием, которые смягчают поджаривание, и все это, как правило, предсказуемо человеком, использующим тостер. Напротив, сложные системы искусственного интеллекта часто разрабатываются как недетерминированные, а это означает, что они могут делать совершенно другие вещи, помимо того, что вы могли бы ожидать в противном случае. Это также может быть частично дополнительно усилено, если ИИ написан для самонастройки, аспект, который может выгодно позволить ИИ улучшиться в случае ML / DL, хотя также может вызвать беспокойство, чтобы ИИ колебался или вступал в ряды. о вреде ИИ. Вы можете не знать, что вас поразило, так как вы были застигнуты врасплох действиями ИИ.

Что мы можем сделать, чтобы попытаться приблизить ИИ к надежности?

Один из подходов состоит в попытке гарантировать, что те, кто создает и внедряет ИИ, соблюдают набор правил этики ИИ. Как отметили эти исследователи ИИ: «Доверие — это отношение, согласно которому агент будет вести себя так, как ожидается, и на него можно положиться в достижении своей цели. Доверие рушится после ошибки или недопонимания между агентом и доверчивым лицом. Психологическое состояние доверия к ИИ — это эмерджентное свойство сложной системы, обычно включающее множество циклов проектирования, обучения, развертывания, измерения производительности, регулирования, перепроектирования и переобучения» (указано в Связь ACM, «Доверие, регулирование и искусственный интеллект человека в цикле в Европейском регионе», Стюарт Миддлтон, Эммануэль Летуз, Али Хоссаини и Адриана Чепмен, апрель 2022 г.).

Суть в том, что если мы сможем заставить разработчиков ИИ соблюдать этический ИИ, мы надеемся, что в конечном итоге они создадут заслуживающий доверия ИИ. Это все хорошо, но кажется несколько непрактичным в реальном мире, хотя это абсолютно достойный путь.

Вот что я имею в виду.

Предположим, что разработчики ИИ прилагают кропотливые усилия, создавая систему ИИ для какой-то цели, которую мы обычно называем X. Они тщательно следят за тем, чтобы ИИ соблюдал принципы прозрачности Этики ИИ. Они тщательно следят за тем, чтобы конфиденциальность была должным образом встроена в ИИ. Почти для всех обычных принципов этики ИИ создатели ИИ тщательно следят за тем, чтобы ИИ соответствовал заданным предписаниям.

Стоит ли теперь доверять этому ИИ?

Позвольте мне помочь просочиться в ваши мысли по этому открытому вопросу.

Оказывается, кибер-мошенникам удалось проникнуть в ИИ и незаметно заставить ИИ выполнить X, а также передать кибер-хакерам все данные, которые собирает ИИ. Поступая таким образом, эти злодеи коварно подрывают принцип конфиденциальности. Вы в блаженном неведении, что это происходит под капотом ИИ.

С этой добавленной информацией я снова задам вам тот же вопрос.

Вы доверяете этому ИИ?

Осмелюсь сказать, что большинство людей сразу же заявят, что они, безусловно, не доверяйте этому конкретному ИИ. Они могли доверять ему раньше. Теперь они предпочитают больше не считать ИИ заслуживающим доверия.

Несколько ключевых идей, основанных на этом простом примере, заслуживают внимания:

  • Динамика доверия. Даже самые лучшие намерения охватить все основы обеспечения того, чтобы этика ИИ была встроена в систему ИИ, не являются гарантией того, чем ИИ может оказаться или стать. После того, как ИИ введен в действие, посторонние потенциально могут подорвать достижения этического ИИ.
  • Подрыв доверия изнутри. Акт подрыва доверия не обязательно должен быть посторонним. Инсайдер, который регулярно занимается обслуживанием системы ИИ, может ошибиться и ослабить ИИ, сделав его менее надежным. Этот разработчик ИИ может не знать, что он сделал.
  • Непреднамеренные компромиссы доверия. Самонастраивающийся или саморегулирующийся ИИ может в какой-то момент приспособиться и свернуть на ненадежную территорию. Возможно, ИИ пытается повысить прозрачность ИИ и в то же время неправомерно ставит под угрозу аспекты конфиденциальности.
  • Рассеивание доверия. Попытка достичь одинаковой максимальной степени достоверности всех принципов этики ИИ обычно нецелесообразна, поскольку они часто противоречат друг другу или имеют другие внутренние потенциальные конфликты. Было бы довольно идеализированной точкой зрения полагать, что все заповеди этического ИИ мечтательно согласованы и все достижимы в какой-то равной максимальной степени.
  • Доверие может быть дорогостоящим. Стоимость попытки достичь первоклассного подобия надежного ИИ путем выполнения различных обширных и исчерпывающих шагов и соблюдения множества принципов этики ИИ будет относительно высокой. Вы можете легко возразить, что затраты на использование некоторых систем ИИ, которые в противном случае имели бы важное значение для общества, были бы непомерно высокими, даже если бы ИИ был, скажем так, далеко не идеальным из-за стремления к надежности.
  • И так далее.

Не истолкуйте предыдущие замечания неправильно, предполагая, что мы должны каким-то образом предотвратить усилия по тщательному созданию и внедрению надежного ИИ. Вы, так сказать, выплеснули бы ребенка вместе с водой из ванны. Правильная интерпретация заключается в том, что нам действительно нужно выполнять эти доверительные действия, чтобы заставить ИИ заслуживать доверия, и все же это само по себе не является панацеей или серебряной пулей.

Многосторонний путь к надежному ИИ

Существуют важные дополнительные многосторонние способы достижения надежного ИИ.

Например, как я уже рассказывал в своих колонках, множество новых законов и правил, касающихся ИИ, направлены на то, чтобы подтолкнуть производителей ИИ к разработке надежного ИИ, см. ссылка здесь и ссылка здесь.

Эти правовые ограничения имеют решающее значение как всеобъемлющее средство обеспечения полной ответственности тех, кто разрабатывает ИИ, за свой ИИ. Без таких потенциальных средств правовой защиты и законных наказаний те, кто бездумно продвигает ИИ на рынок, скорее всего, будут продолжать делать это, практически не заботясь о создании надежного ИИ. Я мог бы отметить, что если эти законы и правила плохо разработаны или неадекватно реализованы, они могут, к сожалению, подорвать стремление к надежному ИИ, возможно, по иронии судьбы и странным образом поощряя ненадежный ИИ над заслуживающим доверия ИИ (см. обсуждения в моей колонке для дальнейшего объяснения).

Я также был стойким сторонником того, что я горячо называл Боты-ангелы-хранители с искусственным интеллектом (см. мой репортаж на ссылка здесь). Это будущий метод или подход к борьбе с огнем с помощью ИИ, а именно использование ИИ, чтобы помочь нам иметь дело с другим ИИ, который может быть или не быть заслуживающим доверия.

Во-первых, некоторый фоновый контекст будет полезен.

Предположим, вы решили положиться на систему ИИ, но не уверены в ее надежности. Ключевой проблемой может быть то, что вы одиноки в своих попытках выяснить, следует ли доверять ИИ или нет. ИИ потенциально вычислительно быстрее вас и может использовать вас. Вам нужен кто-то или что-то на вашей стороне, чтобы помочь.

Одна из точек зрения заключается в том, что всегда должен быть человек, который будет помогать вам, когда вы используете систему ИИ. Однако это проблематичное решение. Если ИИ работает в режиме реального времени, что мы сейчас обсудим, когда дело дойдет до появления беспилотных автомобилей на основе ИИ, присутствия человека в процессе может быть недостаточно. ИИ может действовать в режиме реального времени, и к тому времени, когда назначенный человек в цикле вступит в игру, чтобы выяснить, правильно ли работает ИИ, катастрофический результат уже может произойти.

Кроме того, это поднимает еще один фактор доверия. Обычно мы назначаем уровень доверия в зависимости от контекста или обстоятельств, с которыми мы сталкиваемся. Вы можете полностью доверять своему маленькому сыну или дочери в том, что они будут верны вам, но если вы отправляетесь в поход и решите положиться на малыша, который скажет вам, безопасно ли ступать на край обрыва, я думаю, вы поступили бы мудро. подумать, может ли малыш дать такой совет жизни или смерти. Ребенок может делать это серьезно и искренне и, тем не менее, быть не в состоянии адекватно дать такой совет.

То же самое понятие связано с доверием, когда речь идет об ИИ. Система ИИ, которую вы используете для игры в шашки или шахматы, скорее всего, не участвует в обсуждении вопросов жизни или смерти. Вы можете быть более спокойными с вашим назначением доверия. Самоуправляемый автомобиль на основе искусственного интеллекта, который мчится по шоссе на высоких скоростях, требует гораздо более серьезного уровня доверия. Малейший сбой системы управления ИИ может привести к вашей смерти и гибели других людей.

В опубликованном интервью Бины Амманат, исполнительного директора Global Deloitte AI Institute и автора книги Надежный ИИ, аналогичный акцент на рассмотрении контекстуальных аспектов, в которых надежность ИИ играет роль: «Если вы создаете решение ИИ, которое ставит диагноз пациентам, справедливость и предвзятость очень важны. Но если вы строите алгоритм, предсказывающий отказ реактивного двигателя, справедливость и предвзятость не так важны. Надежный ИИ — это действительно структура, которая поможет вам начать думать об измерениях доверия в вашей организации» (VentureBeat, 22 марта 2022 г.).

Обсуждая заслуживающий доверия ИИ, вы можете интерпретировать эту тему множеством способов.

Например, надежный ИИ это то, что мы все рассматриваем как желательную и желаемую цель, а именно то, что мы должны стремиться к разработке и распространению надежного ИИ. Есть еще одно употребление крылатой фразы. Несколько альтернативное использование заключается в том, что надежный ИИ — это состояние условия или измерения, когда кто-то может утверждать, что он создал систему ИИ, которая является примером надежного ИИ. Вы также можете использовать фразу надежный ИИ предложить метод или подход, который можно использовать для достижения достоверности ИИ. И т.п.

В связи с этим я надеюсь, что вы понимаете, что не все ИИ одинаковы, и что мы должны помнить о том, чтобы не делать общих заявлений обо всех ИИ. Конкретная система ИИ, вероятно, будет значительно отличаться от другой системы ИИ. Одна из этих систем искусственного интеллекта может быть очень надежной, а другая — незначительно. Будьте осторожны, предполагая, что ИИ — это монолит, которому можно полностью или полностью доверять.

Это просто не тот случай.

Далее я хотел бы кратко рассказать о некоторых из моих текущих исследований в области надежного ИИ, которые могут вас заинтересовать, а также о растущей роли Боты-ангелы-хранители с искусственным интеллектом.

Вот как это происходит.

Вы будете вооружены системой ИИ (бот-ангел-хранитель ИИ), которая разработана для оценки надежности какой-либо другой системы ИИ. Робот-ангел-хранитель с искусственным интеллектом уделяет первостепенное внимание вашей безопасности. Думайте об этом так, как будто у вас есть средства для мониторинга ИИ, на который вы полагаетесь, имея другую систему ИИ в своем настоящем кармане, возможно, работающую на вашем смартфоне или других подобных устройствах. Ваш пресловутый ИИ-хранитель может выполнять вычисления на той же основе, что и ИИ, на который вы полагаетесь, работая на высоких скоростях и рассчитывая ситуацию в режиме реального времени, намного быстрее, чем это может сделать человек в курсе.

С первого взгляда вы можете подумать, что ИИ, на который вы уже полагаетесь, должен иметь некоторые в нашей внутренней среде, Ограждения ИИ, которые делают то же самое, что и отдельно вычисляющий бот-ангел-хранитель ИИ. Да, конечно, хотелось бы. Одна из проблем заключается в том, что барьеры ИИ, встроенные в систему ИИ, могут быть полностью и предвзято согласованы с ИИ как таковым, поэтому предполагаемые барьеры ИИ больше не могут в некотором смысле независимо проверять или подтверждать ИИ.

Противоположная идея заключается в том, что ваш робот-ангел-хранитель ИИ представляет собой независимый или сторонний механизм ИИ, отличный от ИИ, на который вы полагаетесь. Он находится вне другого ИИ, оставаясь преданным вам и не привязанным к ИИ, за которым наблюдают или оценивают.

Прямой способ размышления об этом может быть выражен с помощью следующих упрощенных утверждений, подобных уравнениям. Можно сказать, что «P» хочет потенциально доверить «R» выполнение конкретной задачи «X»:

Это будет следующим, когда участвуют только люди:

  • Человек P доверяет человеку R выполнение задачи X.

Когда мы решаем полагаться на ИИ, утверждение меняется на это:

  • Человек P доверяет AI instance-R для выполнения задачи X.

Мы можем добавить робота-ангела-хранителя AI, сказав следующее:

  • Человек P доверяет экземпляру ИИ-R выполнение задачи X, так как за ним наблюдает бот-ангел-хранитель ИИ, экземпляр-Z.

Бот-ангел-хранитель ИИ неустанно и неустанно оценивает ИИ, на который вы полагаетесь. Таким образом, ваш удобный ИИ-хранитель может предупредить вас, что доверие этого другого ИИ необоснованно. Или ИИ-хранитель может электронным образом взаимодействовать с другим ИИ, чтобы попытаться гарантировать, что любое отклонение от заслуживающего доверия будет быстро исправлено и т. д. (см. мое освещение таких подробностей на ссылка здесь).

Метафора резервуара надежного доверия

Поскольку мы обсуждаем различные уровни доверия, вы можете найти удобную метафору о надежности, рассматривая доверие как своего рода резервуар.

У вас есть определенное доверие к определенному человеку или вещи в определенных обстоятельствах в определенный момент времени. Уровень доверия будет расти или падать в зависимости от того, что еще происходит с этим конкретным человеком или вещью. Доверие может быть на нулевом уровне, когда у вас нет никакого доверия к человеку или вещи. Доверие может быть отрицательным, когда вы рискуете не доверять этому человеку или предмету.

В случае с системами ИИ ваш резервуар доверия к конкретному ИИ, на который вы полагаетесь в конкретных обстоятельствах, будет увеличиваться или уменьшаться в зависимости от вашей оценки надежности ИИ. Иногда вы можете быть хорошо осведомлены об этом различном уровне доверия к ИИ, в то время как в других случаях вы можете быть менее осведомлены и в большей степени из-за догадок, вынося суждения о надежности.

Способы повышения уровня доверия к ИИ, которые мы здесь обсуждали, включают:

  • Соблюдение этики ИИ. Если ИИ, на который вы полагаетесь, был разработан в попытке придерживаться надлежащих правил этики ИИ, вы, вероятно, использовали бы это понимание, чтобы повысить уровень своего резервуара доверия для этой конкретной системы ИИ. В качестве примечания: также возможно, что вы можете обобщить и другие системы ИИ в отношении их надежности, хотя иногда это может быть вводящей в заблуждение формой того, что я называю Распространение ауры доверия ИИ (будьте осторожны при этом!).
  • Используйте человека в цикле. Если у ИИ есть человек в петле, вы можете положительно увеличить свое предполагаемое доверие к ИИ.
  • Установить законы и правила. Если существуют законы и правила, связанные с этим конкретным типом ИИ, вы также можете повысить свой уровень доверия.
  • Используйте робота-ангела-хранителя с искусственным интеллектом. Если у вас есть наготове бот-ангел-хранитель с искусственным интеллектом, это также повысит уровень вашего доверия.

Как упоминалось ранее, доверие может быть довольно хрупким и развалиться в одно мгновение (т. е. резервуар доверия быстро и внезапно сбрасывает все накопленное доверие).

Представьте, что вы находитесь внутри беспилотного автомобиля на основе ИИ, и ИИ внезапно резко поворачивает направо, заставляя колеса визжать и почти вынуждая автономный автомобиль совершить опасный переворот. Что произойдет с вашим уровнем доверия? Казалось бы, даже если бы вы ранее доверяли ИИ на повышенном уровне, вы резко и резко снизили бы свой уровень доверия, что вполне разумно.

Могу поспорить, что на данном этапе этого серьезного обсуждения вам нужны дополнительные иллюстративные примеры, которые могли бы продемонстрировать природу и возможности надежного ИИ. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-либо в стремлении к надежному ИИ, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Самоуправляемые автомобили и надежный ИИ

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я верю, что это дает достаточный перечень предостережений, чтобы обосновать то, что я собираюсь рассказать.

Сейчас мы готовы глубоко погрузиться в беспилотные автомобили и надежный искусственный интеллект.

Доверие — это все, особенно в случае с беспилотными автомобилями на основе искусственного интеллекта.

Общество, похоже, с опаской наблюдает за появлением беспилотных автомобилей. С одной стороны, есть большая надежда на то, что появление настоящих беспилотных автомобилей заметно сократит количество ежегодных смертельных случаев, связанных с автомобилями. Только в Соединенных Штатах ежегодно происходит около 40,000 2.5 смертей и около XNUMX миллионов травм в результате автомобильных аварий, см. мою статистику на ссылка здесь. Люди пьют за рулем. Люди водят, когда отвлекаются. Задача вождения автомобиля, по-видимому, состоит в том, чтобы постоянно и безошибочно сосредотачиваться на вождении и избегать автомобильных аварий. Таким образом, мы могли бы мечтательно надеяться, что системы вождения с искусственным интеллектом будут постоянно и безошибочно управлять беспилотными автомобилями. Вы можете рассматривать беспилотные автомобили как двойку, заключающуюся в сокращении количества смертей и травм в результате автомобильных аварий, а также в потенциальном обеспечении мобильности на гораздо более широкой и доступной основе.

Но в то же время беспокойство нависает над общественным мнением о том, будут ли беспилотные автомобили достаточно безопасными, чтобы использовать их на дорогах общего пользования в целом.

Если даже один беспилотный автомобиль попадет в аварию или столкновение, которое приведет к гибели или серьезной травме одного человека, вы, вероятно, можете ожидать, что сегодняшнее несколько сложившееся доверие к этим беспилотным автомобилям на основе ИИ резко упадет. Мы видели, как это произошло, когда в Аризоне произошел ныне печально известный инцидент, связанный с несколько (не совсем) беспилотным автомобилем, который врезался в пешехода и убил его (см. эта ссылка здесь).

Некоторые эксперты отмечают, что несправедливо и неуместно основывать доверие к беспилотным автомобилям с искусственным интеллектом на том, что только одна такая очередная смертоносная авария или столкновение могут подорвать и без того относительно безаварийные испытания на дорогах общего пользования. Кроме того, на еще одной несправедливой основе есть вероятность, что независимо от того, какая конкретная марка или модель беспилотного автомобиля с искусственным интеллектом окажется втянутой в печальный инцидент, общество, несомненно, обвинит все бренды беспилотных автомобилей.

Все беспилотные автомобили могут быть очернены, и отрасль в целом может столкнуться с огромной негативной реакцией, которая может привести к закрытию всех публичных дорожных испытаний.

Одной из причин такой реакции являются бессмысленные заявления откровенных сторонников беспилотных автомобилей о том, что все беспилотные автомобили невозможно разбить. Эта идея неразрушимости не только совершенно неверна (см. ссылка здесь), он коварно настраивает индустрию беспилотных автомобилей на совершенно нестандартный набор ожиданий. Эти диковинные и недостижимые заявления о том, что из-за беспилотных автомобилей не будет смертей, подпитывают ошибочное представление о том, что любые автомобильные аварии без водителя являются верным признаком того, что весь комплект и кабуд напрасны.

Есть определенная грусть осознавать, что прогресс в области самоуправляемых автомобилей и постепенное накопление общественного доверия могут быть уничтожены в одно мгновение. Это будет отличная демонстрация хрупкости доверия.

Заключение

Многие автопроизводители и компании, занимающиеся технологиями беспилотного вождения, обычно соблюдают принципы этики ИИ, пытаясь создать и внедрить заслуживающий доверия ИИ с точки зрения безопасных и надежных беспилотных автомобилей на основе ИИ. Пожалуйста, осознайте, что некоторые из этих фирм более сильны и преданы принципам этического ИИ, чем другие. Также время от времени появляются маргинальные или начинающие стартапы, связанные с беспилотными автомобилями, которые, кажется, отбрасывают большую часть краеугольных камней этики ИИ (см. ссылка здесь).

На других фронтах новые законы и постановления, касающиеся беспилотных автомобилей, постепенно вносятся в юридические книги. Есть ли у них необходимые зубы, чтобы поддержать их, это другой вопрос, равно как и то, воспринимается ли соблюдение этих законов всерьез или игнорируется (см. мои колонки для анализа этого).

В этом есть и высокотехнологичный аспект. Я предсказывал, что мы постепенно увидим варианты ботов-ангелов-хранителей с искусственным интеллектом, которые выйдут на первый план в области автономных транспортных средств и автомобилей с автоматическим управлением. Мы еще не там. Это станет более распространенным, как только популярность беспилотных автомобилей станет более распространенной.

Этот последний пункт вызывает известную фразу о доверии, которую вы, несомненно, уже знаете наизусть.

Доверяй, но проверяй.

Мы можем позволить себе расширить наше доверие, возможно, великодушно. Между тем, мы также должны как ястреб следить за тем, чтобы доверие, которое мы вызываем, подтверждалось как словами, так и делами. Давайте немного доверимся ИИ, но бесконечно проверяем, что мы доверяем правильно и с широко открытыми глазами.

Вы можете доверять мне в этом.

Источник: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/