Этика ИИ и закон об ИИ движутся к стандартам, которые явно выявляют предвзятость ИИ и управляют ею

Вы когда-нибудь играли в пятьдесят две карты?

Это не та игра, за которую вы обычно охотно взялись бы. Вот почему. Кто-то предлагает вам, что это якобы забавный вид спорта, и если вы клюнете на сладкую приманку, они подбросят целую колоду игральных карт в воздух и сразу же на пол. Затем человек нахально улыбается и говорит вам, чтобы вы взяли карты. Это вся игра.

Шутник!

У меня есть несколько вдумчивый вопрос, чтобы задать вам об этом.

Предположим, что одна из карт проскользнула под ближайший диван. Когда вы закончите собирать все карты, вы поймете, что одной не хватает, потому что в вашей руке будет только пятьдесят одна.

Вопрос в том, смогли бы вы определить, какой карты не хватает?

Уверен, вы бы сразу сказали, что без труда могли бы сообразить, какая карта не была у вас в руках. Все, что вам нужно сделать, это привести колоду в порядок. Вы знаете, что стандартная колода состоит из четырех мастей и что в каждой масти карты пронумерованы от одного до десяти, а затем валета, дамы и короля.

Вы знаете это, потому что стандартная колода игральных карт основана на стандарте.

Вау, это утверждение может показаться одним из тех совершенно очевидных утверждений. Ну да, конечно, стандартная игровая колода основана на стандарте. Мы все это знаем. Я хочу сказать, что, имея стандарт, мы можем полагаться на него, когда это необходимо. Помимо возможности определить, какой карты не хватает в колоде, вы также можете легко играть в миллионы известных карточных игр с другими людьми. Как только кому-то сообщают правила игры, он сразу может играть, потому что уже полностью знает, из чего состоит колода. Вам не нужно объяснять им, что в колоде четыре масти и карты с разными номерами. Они уже знают, что это так.

Куда я иду с этим?

Я пытаюсь направить вас по пути, который является жизненно важным средством достижения прогресса в области ИИ, и особенно в области этики ИИ и этического ИИ. Видите ли, нам нужно попытаться выработать широко распространенные и общепризнанные стандарты этики ИИ. Если мы сможем это сделать, это облегчит внедрение этического ИИ и, очевидно, будет направлено на улучшение систем ИИ, которые продолжают беспорядочно выбрасываться на рынок (например, ненумерованная и неупорядоченная колода джокеров). Мой постоянный и обширный обзор этики ИИ, этического ИИ и закона об ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Один конкретный сегмент или часть этики ИИ, которая привлекает большое внимание средств массовой информации, состоит из ИИ, который демонстрирует неблагоприятные предубеждения и несправедливость. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в неэтичную пропасть (см. мой анализ таких возможностей на ссылка здесь).

Через мгновение я поделюсь с вами некоторыми всеобъемлющими принципами, лежащими в основе этики ИИ. Есть много таких списков, плавающих то здесь, то там. Можно сказать, что единого списка универсальной привлекательности и согласованности пока не существует. Это неприятная новость. Хорошая новость заключается в том, что, по крайней мере, существуют легкодоступные списки этики ИИ, и они, как правило, очень похожи. Все это говорит о том, что с помощью своего рода обоснованной конвергенции мы находим путь к общей общности того, из чего состоит этика ИИ.

Я привожу это, чтобы заложить основу для моего обсуждения здесь, которое будет сосредоточено на конкретном сегменте или части более широкой области этики ИИ, а именно, как упоминалось ранее, на конкретном элементе предубеждений ИИ. Причина, по которой я делюсь с вами этой темой, также заключается в том, что документ, выпущенный Национальным институтом стандартов и технологий (NIST), пытается заставить нас приблизиться к стандарту, характеризующему предубеждения ИИ. Документ имеет право На пути к стандарту для выявления и управления предвзятостью в искусственном интеллекте Авторами Ревой Шварц, Апостолом Васильевым, Кристен Грин, Лори Перин, Эндрю Бертом и Патриком Холлом и опубликовано Министерством торговли США, NIST Special Publication 1270, в марте 2022 года.

Мы будем раскрывать эту удобную и вдохновляющую попытку установить, что мы подразумеваем под предубеждениями ИИ. Старая поговорка гласит, что вы не можете управлять тем, что не можете измерить. Имея стандарт, в котором изложены различные предубеждения ИИ, вы можете начать измерять и управлять бедствием предубеждений ИИ.

Во-первых, давайте кратко рассмотрим некоторые из общих этических принципов ИИ, чтобы проиллюстрировать, что должно быть жизненно важным соображением для любого, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологии, процессов разработки и методов работы, применимых к возможностям ИИ, в том числе с использованием прозрачных и проверяемых методологий, источников данных, а также процедур проектирования и документации.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только кодеры» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как указывалось ранее, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна разбираться в принципах этики ИИ и соблюдать их.

В основе многих из этих ключевых принципов этики ИИ лежит коварная природа предубеждений ИИ.

Как и в случае с колодой карт, было бы неплохо, если бы мы могли каким-то образом сгруппировать предубеждения ИИ в набор «мастей» или категорий. Действительно, документ NIST предлагает предполагаемую группировку.

Предлагаются три основные категории:

1) Системные предубеждения

2) Статистические и вычислительные погрешности

3) Человеческие предубеждения

Все ли предубеждения ИИ точно вписываются в одну из этих трех категорий, безусловно, следует учитывать. Вы можете с уверенностью утверждать, что некоторые предубеждения ИИ попадают в одну, две или все три категории одновременно. Более того, вы можете заявить, что заслуживают упоминания и другие категории, например, четвертая, пятая, шестая или более серий группировок.

Я надеюсь, что вы так думаете, потому что нам нужно привлечь всех к участию в формировании этих стандартов. Если вас раздражает то, как формируются эти стандарты, я призываю вас направить эту энергию на то, чтобы помочь остальным из нас сделать эти многообещающие стандарты настолько надежными и полными, насколько это возможно.

А пока мы можем поближе рассмотреть предложенные три категории и посмотреть, с какой рукой мы уже имели дело (да, я собираюсь продолжать использовать аналогию с колодой игральных карт, делая это так). на протяжении всей этой письменной части вы можете поставить свой последний доллар на этот не такой уж скрытый туз темы).

Что имеется в виду, говоря о системных предубеждениях?

Вот что говорится в документе NIST: «Системные предубеждения возникают в результате процедур и практики конкретных институтов, которые действуют таким образом, что одни социальные группы получают преимущества или преимущества, а другие — ущемление или обесценивание. Это не обязательно должно быть результатом какого-либо сознательного предубеждения или дискриминации, а скорее результатом того, что большинство следует существующим правилам или нормам. Наиболее распространенными примерами являются институциональный расизм и сексизм» (обратите внимание, что это всего лишь краткий отрывок, и читателям рекомендуется ознакомиться с более полным объяснением).

ИИ входит в смесь системных предубеждений, предоставляя средства передачи и применения этих предубеждений в приложениях на основе ИИ. Всякий раз, когда вы используете часть программного обеспечения с искусственным интеллектом, насколько вы знаете, оно может содержать множество предубеждений, которые уже встроены в систему через компании и отраслевые практики, которые привели к созданию ИИ. Согласно исследованию NIST: «Эти предубеждения присутствуют в наборах данных, используемых в ИИ, а также в институциональных нормах, практиках и процессах на протяжении всего жизненного цикла ИИ, а также в более широкой культуре и обществе».

Далее рассмотрим набор погрешностей, помеченных как статистические и вычислительные погрешности.

В документе NIST говорится: «Статистические и вычислительные погрешности возникают из-за ошибок, возникающих, когда выборка не является репрезентативной для населения. Эти предубеждения возникают из-за систематических, а не случайных ошибок и могут возникать в отсутствие предубеждений, пристрастности или дискриминационных намерений. В системах ИИ эти предубеждения присутствуют в наборах данных и алгоритмических процессах, используемых при разработке приложений ИИ, и часто возникают, когда алгоритмы обучаются на одном типе данных и не могут экстраполировать за пределы этих данных».

Этот тип статистической и вычислительной предвзятости часто внедряется в систему ИИ, использующую машинное обучение (ML) и глубокое обучение (DL). Поднятие серьезного вопроса современного ML/DL требует связанного с этим аспекта о том, что такое ИИ и что такое ML/DL.

Давайте удостоверимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели дико рассуждать о чувствующий AI, эта дискуссия может пойти в совершенно ином направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхразумный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Давайте будем более приземленными и рассмотрим современный вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение и глубокое обучение, которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Это прямо подводит нас к третьей категории набора из трех групп NIST, в частности к роли человеческих предубеждений в появлении предубеждений ИИ. Вот что указано в документе NIST: «Человеческие предубеждения отражают систематические ошибки в человеческом мышлении, основанные на ограниченном числе эвристических принципов и предсказании значений для более простых операций суждения. Эти предубеждения часто носят неявный характер и, как правило, связаны с тем, как человек или группа воспринимают информацию (например, автоматический вывод ИИ), чтобы принять решение или заполнить недостающую или неизвестную информацию. Эти предубеждения вездесущи в институциональных, групповых и индивидуальных процессах принятия решений на протяжении всего жизненного цикла ИИ, а также в использовании приложений ИИ после их развертывания».

Теперь вы получили быстрое введение в три категории.

Я хотел бы поделиться с вами дополнительной пищей для размышлений, изложенной в документе NIST. Диаграмма в их повествовании дает полезную сводку ключевых вопросов и соображений, лежащих в основе каждого из трех наборов предубеждений ИИ. Я перечисляю их здесь для вашего удобства и назидания.

#1: Системные предубеждения

  • Кого считать, а кого не считать?

— Проблемы со скрытыми переменными

— Недостаточное представительство маргинализированных групп

— Автоматизация неравенств

— Недопредставленность при определении функции полезности

— Процессы, благоприятствующие большинству/меньшинству

— Культурная предвзятость в целевой функции (лучшее для отдельных лиц или лучшее для группы)

  • Откуда мы знаем, что правильно?

— Усиление неравенства (группы больше подвержены влиянию более широкого использования ИИ)

— Более негативное влияние на интеллектуальную полицию

— Широкое внедрение райдшеринга/беспилотных автомобилей/и т. д. может изменить политику, влияющую на население, в зависимости от использования

# 2: Статистические и вычислительные ошибки

  • Кого считать, а кого не считать?

— Систематическая ошибка выборки и отбора

— Использование прокси-переменных, поскольку их легче измерить

— Предвзятость автоматизации

- Шкала Лайкерта (от категориального к порядковому и к кардинальному)

— Нелинейный против линейного

— Экологическое заблуждение

— Минимизация нормы L1 и L2

- Общие трудности с количественной оценкой контекстуальных явлений

  • Откуда мы знаем, что правильно?

— Отсутствие адекватной перекрестной проверки

— Предвзятость выживания

— Сложности с честностью

# 3: Человеческие предубеждения

  • Кого считать, а кого не считать?

— Предвзятость наблюдения (эффект уличного фонаря)

— Предвзятость доступности (привязка)

- заблуждение Макнамара

— Групповое мышление приводит к узкому выбору

— Эффект расёмона приводит к субъективной адвокации

- Сложность количественной оценки целей может привести к ошибке Макнамары.

  • Откуда мы знаем, что правильно?

- Подтверждение смещения

— Предвзятость автоматизации

Могу поспорить, что на данном этапе этого серьезного обсуждения вам нужны наглядные примеры, которые могли бы продемонстрировать три категории предубеждений ИИ. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-нибудь о трех предложенных категориях предубеждений ИИ, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Самоуправляемые автомобили и предвзятость ИИ

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я верю, что это дает достаточный перечень предостережений, чтобы обосновать то, что я собираюсь рассказать.

Теперь мы готовы глубоко погрузиться в беспилотные автомобили и возможности этического ИИ, связанные с тремя категориями предубеждений ИИ.

Представьте, что беспилотный автомобиль на основе искусственного интеллекта едет по улицам вашего района и, кажется, едет безопасно. Поначалу вы уделяли особое внимание каждому случаю, когда вам удавалось мельком увидеть беспилотный автомобиль. Автономное транспортное средство выделялось своей стойкой электронных датчиков, включая видеокамеры, радары, устройства LIDAR и тому подобное. После многих недель, когда беспилотный автомобиль колесит по вашему району, вы едва замечаете его. Насколько вам известно, это просто еще одна машина на и без того загруженных дорогах общего пользования.

Чтобы вы не думали, что знакомство с беспилотными автомобилями невозможно или неправдоподобно, я часто писал о том, как места, которые находятся в рамках испытаний беспилотных автомобилей, постепенно привыкли видеть обновленные автомобили. см. мой анализ на эта ссылка здесь. Многие из местных жителей в конечном итоге перешли от восторженного таращивания рта, разинув рот, к тому, чтобы теперь широко зевать от скуки, наблюдая за этими извилистыми беспилотными автомобилями.

Вероятно, главная причина, по которой сейчас они могут заметить автономные транспортные средства, заключается в факторе раздражения и раздражения. Стандартные системы вождения с искусственным интеллектом следят за тем, чтобы автомобили соблюдали все ограничения скорости и правила дорожного движения. Для беспокойных водителей-людей в их традиционных автомобилях, управляемых людьми, вы иногда раздражаетесь, когда застреваете за строго законопослушными самоуправляемыми автомобилями на основе искусственного интеллекта.

Это то, к чему нам всем, возможно, нужно привыкнуть, справедливо это или нет.

Вернемся к нашей сказке.

Далее мы рассмотрим, как системные предубеждения могут сыграть роль в контексте беспилотных автомобилей.

Некоторые эксперты очень обеспокоены тем, что беспилотные автомобили будут прерогативой только богатых и элиты. Возможно, стоимость использования беспилотных автомобилей будет непомерно высокой. Если у вас нет больших денег, вы можете никогда не увидеть внутреннюю часть беспилотного автомобиля. Утверждается, что те, кто будет использовать беспилотные автомобили, должны быть богатыми.

Таким образом, некоторые смущенно увещевают, что появление беспилотных автомобилей на основе ИИ будет пронизано формой системной предвзятости. Общая промышленная система автономных транспортных средств в целом не позволит беспилотным автомобилям попасть в руки тех, кто беден или менее богат. Это может быть не обязательно явным намерением, и просто оказывается, что единственный способ возместить обременительные затраты на изобретение беспилотных автомобилей — это установить возмутительно высокие цены.

Если вы возразите, что сегодня существуют пробные версии беспилотных автомобилей, которыми может пользоваться обычный человек, то, таким образом, кажется очевидным, что вам не нужно быть богатым как таковым, контраргументом будет то, что это своего рода игра-оболочка, поскольку это было. Предполагается, что автопроизводители и компании, занимающиеся технологиями самостоятельного вождения, хотят создать впечатление, что стоимость не будет существенным препятствием. Они делают это в целях пиара прямо сейчас и поднимут цены, как только разберутся с недостатками. Конспиролог может даже заявить, что «морские свинки» как обычные люди пагубно используются, чтобы позволить богатым в конечном итоге стать еще богаче.

Итак, учитывая этот довольно спорный вопрос и вложив свои пять копеек в эту грязную тему, я не верю, что беспилотные автомобили будут дешевле для повседневного использования. Я не буду здесь вдаваться в подробности относительно того, на чем основано мое утверждение, и приглашаю вас посмотреть мои содержательные обсуждения на ссылка здесь а также ссылка здесь.

Двигаясь дальше, мы можем рассмотреть вопрос о статистических и вычислительных погрешностях, связанных с ИИ.

Подумайте над, казалось бы, несущественным вопросом о том, где беспилотные автомобили будут перемещаться, чтобы забирать пассажиров. Это кажется совершенно безобидной темой. Мы воспользуемся рассказом о городке или городе, в котором есть беспилотные автомобили, чтобы подчеркнуть, возможно, удивительно потенциальный спектр статистических и вычислительных предубеждений, связанных с ИИ.

Сначала предположим, что ИИ бродил по всему городу на беспилотных автомобилях. Любой, кто хотел заказать поездку на беспилотном автомобиле, имел практически равные шансы его поймать. Постепенно ИИ начал заставлять беспилотные автомобили перемещаться только в одном районе города. Этот раздел приносил больше денег, и система искусственного интеллекта была запрограммирована на максимизацию доходов от использования в сообществе.

Члены сообщества в бедных частях города с меньшей вероятностью могли воспользоваться беспилотным автомобилем. Это было связано с тем, что беспилотные автомобили находились дальше и перемещались в более прибыльной части региона. Когда запрос поступал из отдаленной части города, любой запрос из более близкого места, которое, вероятно, находилось в «уважаемой» части города, получал более высокий приоритет. В конце концов, получить беспилотный автомобиль в любом месте, кроме более богатой части города, стало почти невозможно, особенно для тех, кто жил в этих теперь бедных ресурсами районах.

Можно утверждать, что ИИ в значительной степени приземлился на форму статистической и вычислительной предвзятости, сродни форме прокси-дискриминации (также часто называемой косвенной дискриминацией). ИИ не был запрограммирован на то, чтобы избегать бедных кварталов. Вместо этого он «научился» делать это с помощью ML/DL.

Предполагалось, что ИИ никогда не попадет в такой позорный зыбучий песок. Не было создано специального мониторинга, чтобы отслеживать, куда движутся беспилотные автомобили на основе ИИ. Только после того, как жители города начали жаловаться, руководство города осознало, что происходит. Для получения дополнительной информации об этих типах общегородских проблем, которые собираются представить автономные транспортные средства и беспилотные автомобили, см. мой репортаж на эта ссылка здесь и в котором описывается исследование, проведенное под руководством Гарварда по этой теме, соавтором которого я был.

Для третьей категории предубеждений человека, связанных с предубеждениями ИИ, мы обратимся к примеру, в котором ИИ определяет, следует ли останавливаться для ожидания пешеходов, не имеющих права проезда, чтобы перейти улицу.

Вы, несомненно, ездили за рулем и сталкивались с пешеходами, которые ждали перехода улицы, но не имели для этого преимущественного права проезда. Это означало, что вы могли по своему усмотрению остановиться и пропустить их. Вы можете продолжить движение, не давая им пересечься, и при этом полностью соблюдать правила дорожного движения.

Исследования того, как люди-водители решают останавливаться или не останавливаться для таких пешеходов, показали, что иногда люди-водители делают выбор, основываясь на неблагоприятных предубеждениях. Водитель-человек может посмотреть на пешехода и решить не останавливаться, даже если бы он остановился, если бы пешеход имел другой внешний вид, например, в зависимости от расы или пола. Я изучил это в ссылка здесь.

Представьте, что беспилотные автомобили на основе ИИ запрограммированы на решение вопроса о том, останавливаться или не останавливаться для пешеходов, не имеющих преимущественного права проезда. Вот как разработчики ИИ решили запрограммировать эту задачу. Они собирали данные с городских видеокамер, расставленных по всему городу. Данные демонстрируют водителей-людей, которые останавливаются для пешеходов, не имеющих преимущественного права проезда, и водителей-людей, которые не останавливаются. Все это собирается в большой набор данных.

Используя машинное обучение и глубокое обучение, данные моделируются вычислительно. Затем система вождения с искусственным интеллектом использует эту модель, чтобы решить, когда останавливаться или не останавливаться. Как правило, идея состоит в том, что из чего бы ни состоял местный обычай, именно так ИИ будет управлять беспилотным автомобилем.

К удивлению городских властей и жителей, ИИ, очевидно, выбирал останавливаться или не останавливаться в зависимости от возраста пешехода. Как это могло случиться?

При более внимательном рассмотрении видео о действиях водителя-человека выясняется, что многие случаи неостановки были связаны с пешеходами, у которых была трость пожилого человека. Люди-водители, по-видимому, не хотели останавливаться и позволять пожилому человеку переходить улицу, по-видимому, из-за предполагаемой продолжительности поездки. Если пешеход выглядел так, будто может быстро перейти улицу и свести к минимуму время ожидания водителя, водители были более склонны пропустить человека через дорогу.

Это глубоко укоренилось в системе управления ИИ. Датчики беспилотного автомобиля будут сканировать ожидающего пешехода, передавать эти данные в модель ML / DL, а модель будет передавать ИИ информацию о том, следует ли остановиться или продолжить движение. Любое визуальное указание на то, что пешеход может идти медленно, например, использование трости, математически использовалось для определения того, должна ли система вождения AI пропускать ожидающего пешехода или нет.

Вы можете возразить, что это была зависимость от существовавших ранее человеческих предубеждений.

Заключение

Некоторые заключительные мысли на данный момент.

Существует популярное высказывание о том, что вы не можете изменить карты, которые вам сдали, и вместо этого должны научиться правильно играть с любой рукой, которую вам дали.

В случае предубеждений ИИ, если мы не возьмемся за установление этики ИИ по всем направлениям и особенно не укрепим характеристику предубеждений ИИ, виды рук, с которыми мы будем иметь дело, будут переполнены убого неэтичными, и, возможно, незаконный слой. Для начала мы должны предотвратить раздачу этих карт. Смелая цель создать и обнародовать стандарты этического ИИ — важнейший инструмент для борьбы с нарастающим цунами грядущих AI для плохих.

Вы можете решительно взять на вооружение тот факт, что безудержное предубеждение ИИ и неэтичный ИИ будут похожи на хлипкий карточный домик, который взорвется сам по себе и, вероятно, станет катастрофой для всех нас.

Давайте играть, чтобы победить, используя этичный ИИ.

Источник: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ай-предубеждения/