Этика ИИ с тревогой задается вопросом, не скрывают ли предубеждения ИИ коварно динамику социальной власти, в том числе для беспилотных автомобилей с ИИ

Прячется на виду.

Вы когда-нибудь слышали эту строчку раньше?

Наверное, так.

Оно может иметь различные значения, хотя наиболее распространенное понимание, по-видимому, заключается в том, что иногда мы не замечаем чего-то, что находится прямо перед нашими глазами. Возможно, вы сталкивались с этим явлением.

Например, может быть, недавно вы слегка паниковали, что не можете найти свой смартфон, а потом вдруг и смущенно осознали, что он крепко держится в вашей руке, и все же вы проглядели это. Это произошло потому, что вы с тревогой оглядывали комнату, чтобы найти, где вы в последний раз оставили свой смартфон, что отвлекало вас от осознания того, что неуловимое и заветное электронное устройство было в пределах вашей досягаемости.

Это случается со всеми нами.

Родственный и довольно легендарный психологический эксперимент, проведенный в конце 1990-х годов, ярко задокументировал этот тип человеческого надзора и периодически возвращал внимание общественности к этой якобы бессмысленной или, скажем так, отвлеченной уязвимости. В наше время существует множество онлайн-видео, демонстрирующих суть эксперимента и то, как легко мы можем не увидеть то, что «прячется» у всех на виду. На несколько формальной основе этот вопрос в целом часто называют невнимательная слепота, хотя другие характеристики и варианты были подробно описаны.

Я хотел бы рассказать вам об эксперименте и видеороликах, изображающих его, хотя я должен сначала предупредить вас, что если вы прочитаете мое разъяснение об этом, то удовольствие от трюка, к сожалению, уменьшится. Вы можете сравнить это с магическим актом. Как только вы узнаете, как работает этот трюк, вы уже никогда не увидите фокус в том же свете. Просто хотел дать вам честное предупреждение.

Готовы ли вы?

Обычно это происходит так. Вас просят посмотреть видео, в котором несколько людей свободно сгруппированы вместе. Они несколько лениво и беспорядочно перебрасывают друг другу мяч или что-то в этом роде. В метании нет особой закономерности, и они просто приятно проводят время, занимаясь какой-то беззаботной пищей.

До сих пор так хорошо.

Далее идет поворот.

Вас просят посчитать, сколько раз мяч или предмет подбрасывается. Обычно этой задаче придают немного больше конкретики. Например, подсчитайте, сколько раз члены группы в фиолетовой рубашке подбрасывают мяч, но не считайте, сколько раз те, кто в белой рубашке, ловят мяч. Как вы вскоре увидите, это «хитрый» способ отвлечь вас, задействовав ваши когнитивные процессы на узкой задаче.

Вас просят усердно выполнить задание на подсчет, прилагая к этому все усилия. По общему признанию, это довольно сложно сделать и требует сильной концентрации, потому что мяч движется быстро, и люди, кажется, случайным образом выбирают, куда и когда бросить мяч. Ваш разум пытается сосредоточиться на участниках в фиолетовых рубашках. Ваш разум следит за мячом. Ваш разум одновременно пытается игнорировать или вычеркнуть участников в белых рубашках. Они становятся почти сбивающими с толку мысленно на вашем пути. Вы не хотите непреднамеренно учитывать их в своем подсчете (раздражающая ошибка, если вы это сделаете).

В конце последовательности бросков вас спросят, сколько раз участники в фиолетовых рубашках подбрасывали мяч. Вы самодовольны в своей личной уверенности и глубокой уверенности в том, что точно и точно произвели точный подсчет. Ведь ты, бесспорно, должен быть абсолютно прав на счет.

Эксперимент, однако, не закончен (здесь раскрыт фокус, так что продолжайте читать, только если вы хотите или хотите знать).

Вас спрашивают, не замечали ли вы случайно, что среди участников, подбрасывавших мяч или другие предметы, прошла горилла.

Чего-чего?

А?

Приходи еще?

Большинство людей смеются или насмехаются над вопросом, была ли в этой сцене горилла. Рефлекторная реакция состоит в упрямом утверждении, что такая горилла никогда не появлялась. На самом деле вопрос кажется причудливым и совершенно фантастически придуманным.

У меня были люди, готовые выложить кучу денег за свое утверждение, что в той сцене метания, которую они внимательно и внимательно наблюдали, не было никакой гориллы. Иногда мне жаль, что я не принял этих людей на эту ставку, так как сегодня я буду кататься в наличных деньгах. Тем не менее, это было бы совершенно несправедливой ставкой и, вероятно, превратилось бы в жалкую оплошность, превращающую друга во врага.

Видите ли, в этой сцене действительно была горилла (человек в костюме гориллы, который для всех практических целей, по сути, является гориллой как таковой, когда дело доходит до характера эксперимента).

При повторном просмотре той же записанной сцены человек, который не заметил гориллу, ошеломлен. Как правило, в течение нескольких секунд они будут лихорадочно вращаться в серии эмоциональных реакций. Во-первых, они ошеломлены в неверии. Во-вторых, они будут утверждать, что вы показываете им подделанную версию сцены, а не то, что они видели. В-третьих, они неохотно признают, что вы показываете им настоящую сцену, но будут настаивать на том, что вы никогда не говорили им следить за гориллой. Другими словами, вы послушно делали то, о чем вас просили. Ни больше ни меньше. Таким образом, случайно ли вы заметили гориллу или нет, совершенно неважно и не имеет никакого отношения к отрезвляющему делу.

Я предупреждаю вас, что суть здесь в том, что вы рискуете потерять друга или, возможно, навсегда разозлить знакомого, если вы попробуете это на них без какого-либо подобия подсказки или, по крайней мере, полезной подсказки о том, что вот-вот произойдет. Будьте осторожны, пробуя это. Я выполнил свой долг и дал вам подходящее предупредительное предупреждение, поэтому вам решать, сообщать ли это кому-либо, кого вы можете знать.

Однако я должен упомянуть, насколько мощным является это упражнение.

Для застигнутых врасплох есть почти верная гарантия, что человек навсегда запомнит «эксперимент» и всегда будет вспоминать его, не обязательно с любовью, но он будет помнить его достаточно сильно. Если вы никогда не видели такого видео, и если вы пойдете смотреть его сейчас, я сомневаюсь, что у вас будет столь резкое воспоминание по этому поводу. Существует заметная разница между тем, чтобы быть застигнутым врасплох в отношении интригующей идеи такого когнитивного слепого пятна, и просто узнать о нем из вторых рук.

Мы все склонны гордиться своими острыми познавательными способностями. Попасть в ловушку из-за того, что не увидели гориллу, — это серьезный удар по нашей когнитивной уверенности. Вот почему некоторые так непреклонно отказываются принять то, что произошло, и будут изо всех сил бороться против результатов эксперимента. Если вы заранее говорите кому-то, что он станет свидетелем небольшого волшебства, после этого он, как правило, не возражает, если его обманут. Когда вы просите кого-то, казалось бы, выполнить серьезную задачу, а затем ни с того ни с сего решаете выбить почву из-под ног, реакция может быть эмоционально и когнитивно взрывной.

Те из вас, кто склонен к литературе, возможно, испытали на себе подобный пример этой сосредоточенной на уме рассеянности, читая знаменитый рассказ Эдгара Аллена По под названием «Похищенное письмо» о сыщике-любителе, пытающемся стать полноправным детективом. Я не хочу раскрывать слишком много, тем более что я уже потенциально испортил вам эксперимент с гориллой, поэтому давайте просто скажем, что эта замечательная история, опубликованная в 1844 году, полностью соответствует идее спрятать что-то на виду ( может быть, это возбудит ваше любопытство, чтобы прочитать восхитительную историю).

Давайте сделаем краткий обзор прячется на виду мантра.

Вот несколько важных выводов:

  • Мы можем время от времени не замечать вещи, которые находятся прямо перед нашими глазами
  • Это особенно возможно, когда вы когнитивно озабочены
  • Познавательная озабоченность может не иметь ничего общего с спрятался на виду внешний вид
  • Существует также вероятность того, что когнитивная озабоченность может быть связана со «скрытым» аспектом.

Стоит рассмотреть несколько дополнительных следствий:

  • Если вы готовы к такому состоянию, вы, возможно, сможете преодолеть ошибочно воспринимаемую скрытность.
  • Скрытость должна быть разумно выставлена ​​напоказ, иначе скрытность действительно скрыта (сфальсифицированная и несправедливая проверка этого конкретного явления).
  • Подготовившись когнитивно, можно справиться с ситуацией, хотя сюрпризы все же могут произойти (возникают различные другие когнитивные факторы).
  • Это явление когнитивно всепроникающее и, как правило, имеет место практически для всех.

С этим краеугольным камнем, установленным в этом увлекательном вопросе, я хотел бы переключить передачу и поделиться с вами, возможно, неожиданным углом зрения, включая то, что все это необычным образом связано с появлением искусственного интеллекта (ИИ).

Короче говоря, некоторые утверждают, что появление предубеждений ИИ скрывает что-то еще на самом деле у всех на виду. Аргумент состоит в том, что предубеждения ИИ часто в большей степени являются индикаторами динамики социальной власти, а не просто странностями с деформированными данными, требующими решения только с технической точки зрения.

Позвольте мне немного остановиться на этом.

Обнаружение предубеждений в системах ИИ часто рассматривается как своего рода гамбит «ударь крота». Когда вам удается обнаружить скрытую предвзятость, вы, надеюсь, избавляетесь от нее. Конечно, многие другие подобные пропитанные предубеждения могут все еще существовать и в конечном итоге раскрыться или, что еще хуже, возможно, никогда не увидят свет. Однако все это основано на приковывании внимания к самим предубеждениям ИИ. Редко те, кто стремится избавиться от этих предубеждений ИИ, заглядывают глубже, чтобы получить более широкое представление о том, что может происходить.

Некоторые настойчиво заявляют, что эти предубеждения ИИ могут легко быть контрольным ключом к лежащей в основе динамике власти в обществе. В некотором смысле блестящая природа предубеждений ИИ многих отвлекает от более пристального изучения. Если бы вы провели более глубокую и убедительную оценку, вы вполне могли бы обнаружить, что в основе воплощенных предубеждений ИИ лежат всевозможные механизмы социальной власти.

Вы наблюдали, как мяч подбрасывали взад-вперед, считая броски несколько мысленно механически, и не видели гориллу, потому что вы были отвлечены иным образом или думали о чем-то другом, а не о первопричине.

Yikes, некоторые отвечают, это вызывает тревогу. Другие утверждают, что предполагаемого скрытого фактора динамики общественной власти на самом деле нет. Или, если он есть, вам не поручено подсчитывать горилл, а вместо этого нужно подсчитывать и выпотрошить эти предубеждения ИИ, поэтому вся горилла («динамика силы») в любом случае не вступает в игру.

Итак, те, кто является откровенными сторонниками позиции социальной динамики власти, вероятно, будут кричать, что такие реакции на это удивительное и обычно нереализованное представление о том, что предубеждения ИИ являются канарейками в угольной шахте, находятся на одном уровне с теми же реакциями на те, которые были пойманы. -охранник эксперимента с гориллой. Таким образом, типичная реакция влечет за собой колебания между недоверием, неприятием предпосылки и огорчением из-за того, что, возможно, их все время «обманывали» и, к стыду своему, они не понимали, что были слепы, чтобы понять истинный смысл предубеждений ИИ.

Другие, которые сталкиваются с этой медленно просачивающейся теорией о предубеждениях ИИ, часто заинтригованы ею. Мы все неизбежно обнаружим, что до сих пор «не замечал этого раньше» возможность как откровенно любопытная и потенциально расширяющая кругозор. Может быть, это пример того, что что-то прячется у всех на виду. Для тех, кто усердно пытается найти и искоренить предубеждения ИИ, может быть полезно найти более макроскопический способ оценки и поиска способов устранения или предотвращения таких предубеждений.

Может ли эта предполагаемая основа динамики социальной власти быть удобным средством пересмотра и переосмысления явно растущей проблемы, влекущей за собой предубеждения ИИ?

Как я объясню через мгновение, существует множество этических аспектов ИИ и этических разветвлений ИИ, относящихся к предубеждениям ИИ. Это привело к возникновению принципов этики ИИ, таких как попытка убедиться, что ИИ разработан и действует с подобием справедливости, подотчетности, ответственности и т.п. Я расскажу здесь больше об этом через мгновение. Мой постоянный и обширный обзор этики ИИ и этического ИИ см. ссылка здесь и ссылка здесь, просто назвать несколько.

На данный момент мы можем углубиться в предубеждения ИИ и динамику общественной власти с острым чувством интереса и любознательности.

В статье, опубликованной в журнале природа, озаглавленной «Не спрашивайте, хорош ли ИИ или справедлив, спросите, как он меняет власть», автор Пратюша Каллури выдвигает важный тезис о возможности того, что предубеждения ИИ могут скрываться у всех на виду как предательский шведский стол динамики общественной власти: «Это Нередко сейчас эксперты по ИИ спрашивают, является ли ИИ «справедливым» и «во благо». Но «справедливый» и «хороший» — бесконечно обширные слова, в которые можно втиснуть любую систему ИИ. Вопрос, который нужно задать, является более глубоким: как ИИ меняет власть?»

Чтобы сделать это еще более ясным, исследователь делает это несколько ошеломляющее (для некоторых) предположение о том, где область ИИ может время от времени обманывать себя в (скажем так) озабоченности предубеждениями ИИ как отдельное соображение: «Когда область ИИ считает его нейтральным, он не замечает предвзятых данных и создает системы, которые защищают статус-кво и продвигают интересы сильных мира сего».

Опять же, некоторые застигнуты врасплох этими предположениями или, возможно, могут быть истолкованы как утверждения или своего рода теория, в то время как другие говорят, что у них все время были затаившиеся подозрения, и кто-то наконец указал на то, что на самом деле не так. Между тем, у вас также есть некоторые, которые реагируют, говоря, что это не особенно потрясающе. Есть своего рода «ну и что?» реакция и ощущение, что ничего особенного или проницательного из этого не почерпнуть.

Чтобы попытаться продемонстрировать, почему осознание того, что динамика общественной власти действительно является подлинным и жизненно важным скрытым фактором в отношении предубеждений ИИ, предпринимаются различные усилия, чтобы помочь продемонстрировать жалкие конструктивные шаги, которые могут быть предприняты в результате наблюдения или согласия с тем, что горилла существует. .

Рассмотрим недавнее исследование Милагрос Мичели, Джулиана Посада и Тяньлин Янг под названием «Изучение данных машинного обучения: зачем говорить о предвзятости, когда мы имеем в виду силу?» который исследует эти зондирующие проблемы: «С помощью настоящего комментария мы стремимся внести свой вклад в обсуждение предвзятости данных, предвзятости работника данных и документирования данных, расширив область исследования: от исследования предвзятости к исследованию различий в силе, которые формируют данные. Как мы покажем в следующих разделах, изучение предубеждений находит проблему внутри технических систем, либо данных, либо алгоритмов, и затемняет ее первопричины. Более того, само понимание предвзятости и устранения предубеждений связано с ценностями, интересами и властными отношениями, которые определяют, что считать предубеждением, а что нет, какие проблемы решают инициативы по устранению предубеждений и какие цели они преследуют. И наоборот, ориентированная на власть перспектива рассматривает технические системы, но фокусируется на более широком организационном и социальном контекстах. Он исследует отношения, которые вмешиваются в производство данных и систем, и стремится сделать видимой асимметрию власти, которая вписывает в них определенные ценности и предпочтения».Протокол взаимодействия человека с компьютером ACM, январь 2022 г.).

Возьмем в качестве другого примера статью Йонне Мааса под названием «Машинное обучение и отношения власти», посвященную моральной дилемме ИИ, которая имеет предубеждения и может противоречить принципам этики ИИ о явной необходимости подотчетности: «Действительно, чтобы все больше зависеть от такое безотчетное применение власти проблематично не только тогда, когда система оказывается неверной в своих результатах, но и в более общем плане, поскольку открывает возможность морального проступка, ограничивая человеческое процветание, устанавливая дихотомию власти между разработчиками и пользователями. , с одной стороны, и конечных пользователей, с другой. Поэтому мы должны серьезно рассмотреть потенциальную политическую асимметрию, которую все более широкое использование приложений ML привносит в общество, где разработчики и пользователи — в сочетании с самой системой ML — получают все больше власти над конечными пользователями системы из-за неадекватных механизмов подотчетности» (в ИИ и общество2022 февраля).

Все эти появляющиеся усилия, кажется, утверждают, что лежащая в основе динамика социальной власти существенно влияет на то, что мы делаем (или предпочитаем не делать) в отношении предубеждений ИИ, в том числе:

  • Динамика социальной власти может привести к возникновению предубеждений в отношении ИИ
  • Динамика социальной власти может по существу определить то, что мы считаем предубеждениями ИИ.
  • Динамика социальной власти может повлиять на то, как мы справляемся с предубеждениями ИИ
  • Динамика социальной власти может определить, как будет происходить устранение предвзятости ИИ
  • Динамика социальной власти влияет на все заинтересованные стороны, поскольку она связана с ИИ и предубеждениями ИИ.
  • Динамика общественной власти может особенно неблагоприятно повлиять на наиболее уязвимые заинтересованные стороны.
  • И так далее.

Вкратце, вам может быть интересно, что значит ссылаться на динамика общественной власти и откуда такое понятие.

Поверните время вспять, на 1640 год. Возможно, вы смутно знаете, что Томас Гоббс, как известно, заложил фундаментальную основу для анализа и понимания природы общественной власти, которая жадно используется и по сей день. Он, несомненно, наиболее известен тем, что Левиафан которая была опубликована в 1651 году и изложила суть его теорий о власти и динамике власти. Ранее, в 1640 г., он изложил это краеугольное замечание о сущности власти в своей более ранней работе, озаглавленной Элементы права (Я показал отрывок в его первоначальной форме, состоящей из того, что сегодня считается староанглийским): «…поскольку сила одного человека противостоит и препятствует действию силы другого, Силы просто больше нет, но превышение силы одного над силой другого. Ибо противоборствующие равные силы уничтожают друг друга, и такое их противостояние называется Раздором».

В модернистской прямолинейности современные словари склонны говорить, что власть - это когда кто-то может заставить кого-то другого выполнять его приказы, в противном случае человек, которому поручено задание, не захотел бы этого делать. В этом смысле по определению предполагается, что власть обычно создает асимметричные отношения. Один человек имеет власть над другим. Мы можем называть стороны агентами. Власть асимметрично распределяется между одним или несколькими агентами.

Сокращение помечено как власть над.

В области динамики общественной власти ведутся горячие споры о том, является ли это единственной формой такой власти. Например, другая точка зрения состоит в том, что власть в большей степени связана с получением желаемого результата, известного как сила-к. Говорят, что вы используете власть, чтобы повлиять на конкретный желаемый результат. В результате, скорее всего, будут задействованы агенты, хотя это в значительной степени средство более широкого достижения результата, которого вы хотите достичь.

Сокращенная версия для этого сила-к.

Если вы хотите более глубоко изучить тему динамики общественной власти, есть много полезного материала. В качестве примера этот исследователь дает представление о происходящем споре: «Если для первой традиции власть состоит в способности агента воздействовать на определенные результаты, то для второй она состоит во власти агента над другими агентами. Сторонники первой традиции часто утверждают, что власть над — это всего лишь разновидность власти над; сторонники последнего, напротив, часто считают, что вся релевантная социальная власть состоит во власти-над, так что социальная власть-на сводится к власти-над», и затем автор предлагает семь вариантов, включая власть-над-другими, власть-на -эффект-результаты, сила-вопреки-сопротивлению, сила-с-другими и т. д. (согласно журналу Политология, «Грамматика социальной власти: власть-к, власть-с, власть-несмотря и власть-над», Араш Абизаде, 2021 г.).

На заметку по хозяйству, я обычно стараюсь осторожно заявить, что сокращенная формулировка «сила», используемая в этом контексте, относится к динамика общественной власти (все три слова в сочетании вместе). Я делаю это потому, что в противном случае, если я просто использую слово «мощность», вы можете подумать об электроэнергии или, возможно, мощности компьютера, которая состоит из вычислительных возможностей обработки. Я надеюсь, что в оставшейся части этого обсуждения я могу просто использовать слово «власть», и вы поймете, что я имею в виду динамику общественной власти, спасибо.

Прежде чем перейти к еще немного мяса и картошки о роли мощностью (динамика общественной власти) и прячется на виду Что касается предубеждений ИИ, давайте установим некоторые дополнительные основы по некоторым глубоко неотъемлемым темам. Большая часть заламывания рук по поводу предубеждений ИИ в основном происходит в сфере ИИ, известной как машинное обучение (ML) и глубокое обучение (DL).

Мы должны окунуться в этику ИИ и ML/DL.

Возможно, вы смутно осознаете, что один из самых громких голосов в наши дни в области ИИ и даже за его пределами состоит в том, чтобы требовать большего подобия этического ИИ. Давайте посмотрим, что означает обращение к этике ИИ и этичному ИИ. Кроме того, мы можем подготовить почву для дальнейшего изучения того, что я имею в виду, когда говорю о машинном обучении и глубоком обучении.

Один конкретный сегмент или часть этики ИИ, которая привлекает большое внимание средств массовой информации, состоит из ИИ, который демонстрирует неблагоприятные предубеждения и несправедливость. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в неэтичную пропасть (см. мой анализ таких возможностей на ссылка здесь).

Через мгновение я поделюсь с вами некоторыми всеобъемлющими принципами, лежащими в основе этики ИИ. Есть много таких списков, плавающих то здесь, то там. Можно сказать, что единого списка универсальной привлекательности и согласованности пока не существует. Это неприятная новость. Хорошая новость заключается в том, что, по крайней мере, существуют легкодоступные списки этики ИИ, и они, как правило, очень похожи. Все это говорит о том, что с помощью своего рода обоснованной конвергенции мы находим путь к общей общности того, из чего состоит этика ИИ.

Во-первых, давайте кратко рассмотрим некоторые из общих этических принципов ИИ, чтобы проиллюстрировать, что должно быть жизненно важным соображением для любого, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологий, процессов разработки и методов работы, применимых к возможностям ИИ, включая прозрачные и проверяемые методологии, источники данных, процедуры проектирования и документацию.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как указывалось ранее, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна разбираться в принципах этики ИИ и соблюдать их.

Давайте также убедимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели дико рассуждать о чувствующий AI, эта дискуссия может пойти в совершенно ином направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхразумный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Давайте будем более приземленными и рассмотрим современный вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Вернемся теперь к теме питания (динамика общественной власти).

Вспомните, что я ранее провозгласил эти гипотезы о смешении власти и царства предубеждений ИИ:

  • Власть может привести к предвзятости ИИ
  • Сила может по существу определить, что мы считаем предубеждениями ИИ.
  • Власть может повлиять на то, как мы справляемся с предубеждениями ИИ
  • Власть может указать, как будет происходить устранение предвзятости ИИ
  • Власть может влиять на все заинтересованные стороны, поскольку она связана с ИИ и предубеждениями ИИ.
  • Власть может особенно негативно повлиять на наиболее уязвимые заинтересованные стороны
  • И так далее.

Могу поспорить, что на данном этапе этой серьезной дискуссии вам нужны наглядные примеры, которые могли бы продемонстрировать эту тему. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-либо о том, как предубеждения ИИ неразрывно переплетаются с потенциальной скрытой динамикой общественной власти, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Самоуправляемые автомобили и роль динамики социальной власти

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я надеюсь, что это дает достаточное количество предостережений, чтобы обосновать то, что я собираюсь рассказать.

Далее мы рассмотрим, как предубеждения ИИ и динамика социальной власти могут сыграть роль в контексте беспилотных автомобилей. Давайте начнем с одного из самых прозрачных и часто цитируемых «игр сил» в отношении автономных транспортных средств и особенно беспилотных автомобилей.

Некоторые эксперты обеспокоены тем, что беспилотные автомобили будут прерогативой только богатых и элиты. Возможно, стоимость использования беспилотных автомобилей будет непомерно высокой. Если у вас нет больших денег, вы можете никогда не увидеть внутреннюю часть беспилотного автомобиля. Предполагается, что те, кто будет использовать самоуправляемые автомобили, должны быть богатыми (я не согласен, см. мое обсуждение на ссылка здесь).

Это может быть истолковано как форма социальной динамики власти, которая пронизывает появление беспилотных автомобилей на основе ИИ. Общая промышленная система автономных транспортных средств в целом не позволит беспилотным автомобилям попасть в руки тех, кто беден или менее богат. Это может быть не обязательно явным намерением, и просто оказывается, что единственный способ возместить обременительные затраты на изобретение беспилотных автомобилей — это установить возмутительно высокие цены.

Является ли это динамическим соображением общественной власти или нет?

Ты будешь судьей.

Двигаясь дальше, мы можем рассмотреть вопрос о статистических и вычислительных погрешностях, связанных с ИИ.

Подумайте над, казалось бы, несущественным вопросом о том, где беспилотные автомобили будут перемещаться, чтобы забирать пассажиров. Это кажется совершенно безобидной темой.

Сначала предположим, что беспилотные автомобили с искусственным интеллектом будут колесить по целым городам. Любой, кто хочет заказать поездку на беспилотном автомобиле, имеет практически равные шансы его поймать. Постепенно ИИ начинает удерживать беспилотные автомобили в основном в одной части города. Этот раздел приносит больше денег, и ИИ был запрограммирован, чтобы попытаться максимизировать доходы как часть использования в сообществе в целом.

Члены сообщества в бедных частях города с меньшей вероятностью смогут воспользоваться беспилотным автомобилем. Это связано с тем, что беспилотные автомобили находились дальше и перемещались в более доходной части города. Когда запрос поступает из отдаленной части города, любой другой запрос из более близкого местоположения будет иметь более высокий приоритет. В конце концов, получить беспилотный автомобиль в любом месте, кроме более богатой части города, почти невозможно, особенно для тех, кто жил в этих теперь бедных ресурсами районах.

Исчезают хваленые мечты о мобильности для всех, которые должны воплотить в жизнь автомобили с автоматическим управлением.

Можно утверждать, что ИИ в значительной степени приземлился на форму статистической и вычислительной предвзятости, сродни форме прокси-дискриминации (также часто называемой косвенной дискриминацией). ИИ не был запрограммирован на то, чтобы избегать бедных кварталов. Вместо этого он «научился» делать это с помощью ML/DL. См. мое объяснение о дискриминации по доверенности и предвзятости ИИ на ссылка здесь. Кроме того, для получения дополнительной информации об этих типах общегородских или поселковых проблем, с которыми столкнутся автономные транспортные средства и беспилотные автомобили, см. мой репортаж на эта ссылка здесь, описывая исследование под руководством Гарварда, соавтором которого я был.

Играет ли в данном случае роль социальная динамика власти?

Ты будешь судьей.

Что касается третьего случая предубеждений ИИ, мы обратимся к примеру, в котором ИИ определяет, следует ли останавливаться для ожидания пешеходов, не имеющих права проезда, чтобы перейти улицу.

Вы, несомненно, ездили за рулем и сталкивались с пешеходами, которые ждали перехода улицы, но не имели для этого преимущественного права проезда. Это означало, что вы могли по своему усмотрению остановиться и пропустить их. Вы можете продолжить движение, не давая им пересечься, и при этом полностью соблюдать правила дорожного движения.

Исследования того, как люди-водители решают останавливаться или не останавливаться для таких пешеходов, показали, что иногда люди-водители делают выбор, основываясь на неблагоприятных предубеждениях. Водитель-человек может посмотреть на пешехода и решить не останавливаться, даже если бы он остановился, если бы пешеход имел другой внешний вид, например, в зависимости от расы или пола. Я изучил это в ссылка здесь.

Представьте, что беспилотные автомобили на основе ИИ запрограммированы на решение вопроса о том, останавливаться или не останавливаться для пешеходов, не имеющих преимущественного права проезда. Вот как разработчики ИИ могут решить запрограммировать эту задачу. Они собирают данные с городских видеокамер, расставленных по всему городу. Данные демонстрируют водителей-людей, которые останавливаются для пешеходов, не имеющих преимущественного права проезда, а также фиксируют видео водителей-людей, которые не останавливаются. Все это собирается в большой набор данных.

Используя машинное обучение и глубокое обучение, данные моделируются вычислительно. Затем система вождения с искусственным интеллектом использует эту модель, чтобы решить, когда останавливаться или не останавливаться. Как правило, идея состоит в том, что из чего бы ни состоял местный обычай, именно так ИИ будет управлять беспилотным автомобилем.

К удивлению городских властей и жителей, представьте их шок, когда ИИ решает остановиться или не остановиться в зависимости от возраста пешехода.

Как такое могло случиться?

При более внимательном изучении обучающих данных ML/DL и видеороликов о действиях водителя-человека выясняется, что во многих случаях пешеходы не останавливались, у них была трость, как у пожилого человека. Водители-люди, по-видимому, не хотели останавливаться и позволять старейшине переходить улицу, по-видимому, из-за ожидаемого времени, которое может потребоваться кому-то, чтобы совершить поездку. Если пешеход выглядел так, будто может быстро перейти улицу и свести к минимуму время ожидания водителя, водители-люди с большей готовностью пропустили человека через дорогу.

Это глубоко укоренилось в системе управления ИИ благодаря тому, что ML/DL «обнаружил» этот шаблон в обучающих данных и, соответственно, смоделировал его с помощью вычислений. После того, как ML/DL был загружен в беспилотные автомобили с помощью обновлений OTA (по воздуху), бортовая система вождения с искусственным интеллектом начала использовать недавно предоставленные модели ML/DL.

Вот как это будет работать. Датчики беспилотного автомобиля будут сканировать ожидающего пешехода, передавать эти данные в модель ML / DL, а модель будет передавать ИИ информацию о том, следует ли остановиться или продолжить движение. Любое визуальное указание на то, что пешеход может идти медленно, например, использование трости, математически использовалось для определения того, должна ли система вождения ИИ пропускать ожидающего пешехода или нет.

Считаете ли вы, что эта предвзятость ИИ скрывает динамику общественной власти?

Ты будешь судьей.

Заключение

Некоторые заключительные мысли на данный момент.

Давайте рассмотрим несколько общих советов и важных предостережений.

Во-первых, для ясности: никто особо не утверждает, что мы должны каким-то образом игнорировать предубеждения ИИ и переходить к изучению исключительно динамики социальной власти. Я упоминаю об этом, потому что есть некоторые, которые, кажется, выбрасывают ребенка вместе с водой из ванны и полностью прыгают в силовые элементы, как будто предубеждения ИИ несущественны по сравнению с ними.

Не делайте такого грандиозного прыжка в Гранд-Каньон.

Во-вторых, нам нужно сосредоточиться на предвзятости ИИ. А тем временем мы также должны внимательно следить за динамикой общественной власти.

Да, мы можем делать и то, и другое одновременно, особенно теперь, когда мы знаем, что нужно быть начеку. Я уверяю вас, что люди, участвующие в эксперименте с гориллой, склонны быть в напряжении всякий раз, когда они в следующий раз увидят что-нибудь, что может бросить вызов их когнитивным способностям. Знание того, что горилла может быть там, хотя она может и не появиться, гарантирует, что вы все равно наблюдаете за ее потенциальным появлением.

Вот несколько достойных эмпирических правил (это вызывает некоторые споры, просто чтобы вы знали):

  • Предвзятость ИИ может быть истолкована как «скрытие» проблемы динамики власти в обществе (предвзятость ИИ — это не тот, кто прячется, это человек, озабоченный тем, что смотрит только на поверхность предвзятости ИИ)
  • Но не все предубеждения ИИ обязательно скрывают проблему динамики социальной власти.
  • Не все проблемы динамики социальной власти обязательно связаны только с предвзятостью ИИ.
  • Предвзятость ИИ может быть частью коллектива предубеждений ИИ, связанных с конкретной проблемой динамики социальной власти.
  • Перечень проблем динамики социальной власти может запутать практически любую систему ИИ, поскольку системы ИИ являются отражением общества и динамики власти в целом.

Поразмышляйте над этим на мгновение.

Я буду ждать.

Хорошо, вот еще несколько эмпирических правил, которые также могут активизировать умственные способности:

  • При столкновении с предубеждениями ИИ спросите, есть ли какая-либо связь с динамикой общественного влияния.
  • При разработке системы ИИ спросите, влияет ли и каким образом динамика социальной власти на ИИ.
  • Попробуйте изучить, как динамика социальной власти влияет на заинтересованные стороны ИИ.
  • Подумайте, какие меры по смягчению последствий могут быть уместны в отношении ИИ и динамики социальной власти.
  • Всегда следите за гориллой и не забывайте, что гориллы могут существовать (я бы сказал, что это пробуждает эмпирическое правило жизни — никогда не ослепляйте гориллу, это может быть болезненно, и вы пожалеете, что не видели грядет!).

Говоря о мощностью напомнил мне о воздействии, которое может произвести общественная власть. Могу поспорить, что вы знакомы с одной из самых известных или печально известных строк о власти, которая согласно Lord Action звучит так: «Власть имеет тенденцию развращать, а абсолютная власть развращает абсолютно».

Захватывающая дух забота.

Общество должно быть на подъеме, чтобы ИИ оказывал демонстративное влияние на динамику общественной власти. Возможно, это кажется вопиюще очевидным, и тем не менее по этому поводу не так много внешних дебатов и откровенных дискуссий, как вы могли бы подумать, что это может показаться оправданным. К счастью, рост этических соображений ИИ двигает общество в этом направлении. Неумолимо, если не неохотно, и мучительно по дюйму за раз.

Мы можем предоставить последнее слово на данный момент великому Леонардо да Винчи и воспользоваться моментом для размышлений, чтобы обдумать эти проницательно мудрые слова: «Ничто так не укрепляет авторитет, как молчание».

Те, кто отваживаются на предубеждения ИИ и динамику общественной власти, пытаются привлечь прямое внимание к чему-то тихому или непритязательному, что, казалось бы, молчаливо ждет. Давайте начнем говорить, к чему нас, вероятно, призывал бы Леонардо да Винчи.

Источник: https://www.forbes.com/sites/lanceeliot/2022/05/22/ai-ethics-unnervingly-asking-whether-ai-biases-are-insidicious-hiding-societal-power-dynamics-включая- для беспилотных автомобилей/