Этика ИИ и юридический ИИ сбиты с толку вводящими в заблуждение заявлениями, известными как отмывание этики ИИ, которые являются ложными заявлениями о соблюдении этического ИИ, в том числе для автономных беспилотных автомобилей.

Давайте рассмотрим множество способов, которыми слова «стирать» и «стирать» можно растянуть и использовать для передачи различных жемчужин мудрости.

Мы знаем, например, что люди иногда предупреждают, что вы не должны стирать свое грязное белье на людях. Я помню, как в детстве взрослые часто предупреждали, что неправильно произнесенное высказывание может привести к тому, что вам вымоют рот с мылом. Еще одна часто цитируемая фраза заключалась в том, что все, кажется, в конечном итоге выходит из-под контроля.

Если вас беспокоило что-то, с чем вы не хотели связываться, рекомендуемая идея заключалась в том, чтобы посмотреть, сможете ли вы умыть руки. Обычно обсуждаются всевозможные соображения, связанные с стиркой, в том числе то, что вас могут быстро вымыть или смыть. Смыть яйцо с лица — старая поговорка, которая, кажется, до сих пор иногда всплывает в разговорах.

Использование цветов для представления вариантов стирки также относительно хорошо известно. Говорят, что понятие побелки восходит как минимум к 1500-м годам. Высказываются опасения по поводу красной стирки, фиолетовой стирки и так далее. Я осмелюсь сказать, что, возможно, гринвошинг — одна из наиболее часто используемых крылатых фраз в наши дни, якобы относящаяся к акту пустоты при рекламе устойчивого развития и, тем не менее, не подкрепляющая заявленные разговоры какой-либо основой болтовни.

Вы могли не знать об одной из новейших версий стирки, а именно стирке AI Ethics.

Некоторые предпочитают сокращать формулировку до «Этическая промывка», хотя это может вызвать некоторую путаницу, поскольку эта кажущаяся альтернативная формулировка может относиться практически к любому виду промывки, ориентированной на этику. Конкретная форма этического мытья, которую я буду здесь обсуждать, состоит из этики, ориентированной на ИИ, и всех связанных с этим этических соображений. Ради ясности я хотел бы предположить, что промывка этики охватывает широкий спектр промывок этики, которые могут иметь мало или вообще никакого отношения к ИИ как таковому. И эта промывка этики ИИ — это особый вид промывки этики, который нацелен конкретно на сферу ИИ.

Вам может быть интересно, из чего именно состоит стирка AI Ethics?

Мое общее определение состоит в том, что стирку AI Ethics можно определить следующим образом:

  • Отмывание этики ИИ влечет за собой пустословие или приукрашивание заявленных забот по поводу предписаний этики ИИ, в том числе иногда не только несоблюдение этических подходов ИИ, но даже заходит так далеко, что подрывает или подрывает подходы этики ИИ.

Мой постоянный и обширный обзор этики ИИ и этического ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Показательным для вас может быть краткий пример промывки этики ИИ.

Предположим, фирма, разрабатывающая систему искусственного интеллекта, хочет сообщить миру о том, насколько великим будет ее искусственный интеллект. Фирма решает, что одним из способов привлечь много положительного внимания прессы и социальных сетей к ИИ будет реклама того, что он разработан, чтобы быть полностью справедливым и сбалансированным в том, как работает ИИ. ИИ полностью заслуживает доверия. Фирма строго придерживалась принципов создания так называемых Ответственный AI, см. мой репортаж на ссылка здесь. Утверждается, что все преобладающие принципы этики ИИ были неразрывно связаны с системой ИИ.

Звучит неплохо!

Только одна маленькая проблема.

Выяснилось, что фирма ничего из этого не делала.

Они не соблюдали этические нормы ИИ. Они сказали, что сделали, но не сделали этого. Руководители фирмы и маркетинговая команда решили, что заявление о том, что они неукоснительно соблюдают этические соображения ИИ, по-видимому, пойдет на пользу бизнесу. Не нужно на самом деле выполнять тяжелую работу по соблюдению этих надоедливых правил этики ИИ, вместо этого просто скажите, что вы это сделали.

Вуаля, они мгновенно могут продвигать свой ИИ, прыгая на подножку этики ИИ.

Очень просто.

Но это рискованный путь, который на самом деле может привести к большим проблемам.

Фирмы и лидеры, которые решают ложно ссылаться на этику ИИ, когда они мало что сделали для соблюдения этики ИИ, потенциально могут столкнуться с большими последствиями. Во-первых, если их когда-нибудь разоблачат в связи с их лживой этикой ИИ, они рискуют получить серьезную негативную реакцию на свою репутацию. Они солгали о том, что придерживаются этики ИИ. Кроме того, будучи уличенными во лжи, независимо от того, имеет ли он отношение к этике ИИ, они также получают дополнительные проблемы. Это ложь.

Во-вторых, многочисленные юридические разветвления могут ударить по ним и их фирме. Во-первых, они не сделали того, что, по их словам, сделали, и потенциально могут быть привлечены к юридической ответственности за свои ложные заявления. Другая заключается в том, что их ИИ, вероятно, в конечном итоге нарушит законы, касающиеся социально чувствительных областей, таких как демонстрация неправомерных предубеждений и дискриминационные действия. Список юридических вопросов длинный и может в конечном итоге вынудить фирму ввязаться в дорогостоящие юридические баталии и, возможно, как бы потопить весь корабль.

Почему, черт возьми, фирма и ее руководители решили использовать промывку этики ИИ?

Что ж, включение методов этического ИИ может быть несколько дорогостоящим, хотя контраргументом является то, что стоимость, в конце концов, будет легко превышена преимуществами наличия подлинного ИИ и повышенного калибра в соблюдении подходов этики ИИ. Тем не менее, некоторые фирмы предпочли бы выпустить свой ИИ как можно скорее, а позже рассчитать, что они будут беспокоиться о последствиях, если они не рассмотрели этический ИИ в процессе разработки.

Кажется, срабатывает старая линия, состоящая в том, чтобы заплатить мне сейчас или заплатить мне позже. Некоторые лидеры и фирмы считают, что стоит бросить кости и надеяться, что им не придется платить цену «плати-меня-позже», когда они решат отказаться от аспектов «плати-меня-сейчас». Я бы сказал, что когда дело доходит до этики ИИ, бесплатных обедов не бывает. Вы либо делаете свою часть, либо несете последствия.

Это не значит, что во всем этом мало места для маневра.

Компании могут погрузиться в этику ИИ, а затем попытаться преувеличить, как много они сделали. Их потенциальное предположение состоит в том, что у них будет достаточная защита, чтобы противостоять любым обвинениям в том, что они вообще не включали этику ИИ. Они могут указать на какую-то форму половинчатой ​​этической деятельности ИИ, которая может помочь им сорваться с крючка. Таким образом, дебаты затем переходят от того, что они не предприняли никаких усилий по этике ИИ, к тому, достаточно ли они сделали.

Это аргумент, который может продолжаться почти бесконечно и дает поставщику промывки этики ИИ большое пространство для маневра.

Часть неясных аспектов заключается в том, что пока еще нет согласованных универсальных и окончательно реализуемых стандартов в отношении этики ИИ. Без связного и всеобъемлющего набора показателей любые дискуссии о том, должным ли образом соблюдается этика ИИ, будут поверхностными и запутанными. Фирма будет настаивать, что они сделали достаточно. Стороннему наблюдателю или другому лицу, утверждающему, что фирма недостаточно сделала, предстоит тяжелая битва за демонстрацию такого встречного утверждения. Неопределенность может царить.

Прежде чем перейти к еще большему количеству мяса и картошки о диких и необъяснимых соображениях, лежащих в основе мытья этики ИИ, давайте установим некоторые дополнительные основы по глубоко интегральным темам. Нам нужно кратко окунуться в этику ИИ и особенно в появление машинного обучения (МО) и глубокого обучения (ГО).

Возможно, вы смутно осознаете, что один из самых громких голосов в наши дни в области ИИ и даже за его пределами состоит в том, чтобы требовать большего подобия этического ИИ. Давайте посмотрим, что означает обращение к этике ИИ и этичному ИИ. Кроме того, мы рассмотрим, что я имею в виду, когда говорю о машинном обучении и глубоком обучении.

Один конкретный сегмент или часть этики ИИ, которая привлекает большое внимание средств массовой информации, состоит из ИИ, который демонстрирует неблагоприятные предубеждения и несправедливость. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в неэтичную пропасть (см. мой анализ таких возможностей на ссылка здесь).

Через мгновение я поделюсь с вами некоторыми всеобъемлющими принципами, лежащими в основе этики ИИ. Есть много таких списков, плавающих то здесь, то там. Можно сказать, что единого списка универсальной привлекательности и согласованности пока не существует. Это неприятная новость. Хорошая новость заключается в том, что, по крайней мере, существуют легкодоступные списки этики ИИ, и они, как правило, очень похожи. Все это говорит о том, что с помощью своего рода обоснованной конвергенции мы находим путь к общей общности того, из чего состоит этика ИИ.

Во-первых, давайте кратко рассмотрим некоторые из общих этических принципов ИИ, чтобы проиллюстрировать, что должно быть жизненно важным соображением для любого, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологий, процессов разработки и методов работы, применимых к возможностям ИИ, включая прозрачные и проверяемые методологии, источники данных, процедуры проектирования и документацию.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только кодеры» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как указывалось ранее, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна разбираться в принципах этики ИИ и соблюдать их.

Давайте также убедимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели дико рассуждать о чувствующий AI, эта дискуссия может пойти в совершенно ином направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхразумный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Давайте будем более приземленными и рассмотрим современный вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Давайте теперь вернемся к теме мытья этики ИИ.

Есть четыре основных варианта промывки этики ИИ, которые я обычно вижу (сейчас я объясню их):

1) Стиральные машины этики ИИ, которые не знают, что они есть: Этика ИИ омывается незнанием или неграмотностью в отношении ИИ и/или этики ИИ

2) Шайбы этики ИИ, которые подпадают под это: Этика ИИ стирается из-за непреднамеренного проскальзывания, хотя в остальном этика ИИ и ИИ подлинны.

3) Тонко растягивающиеся шайбы этики ИИ: AI Отмывание этики целенаправленным намерением, хотя и чуть-чуть, а иногда почти простительно (или нет)

4) Этические мошенники ИИ, которые знают и нагло торгуют этим: AI Ethics отмывает тотально и коварным и часто возмутительным замыслом

В целом я бы предположил, что четыре варианта варьируются от, скажем так, самого невинного до самого виновного, что касается понимания того, что такое мытье этики ИИ. Давайте пройдемся по каждому из четырех, начиная с первого и переходя к довольно постыдному четвертому.

Во-первых, у вас есть несколько немытых в том смысле, что они не знают, что такое этика ИИ, они не знают, что такое мытье этики ИИ, и, вероятно, они даже мало что знают об ИИ. Можно сказать, что они невежественны или неграмотны в этих вопросах. Для них они, вероятно, совершают омовение этики ИИ и слепо и блаженно не осознают, что делают это.

Это грустно.

Это может быть особенно плохо, если отмывкой этики ИИ занимается крупное информационное агентство или высокопоставленный влиятельный человек в социальных сетях. Их могли накормить ложем лжи, и они не проверили эту ложь. Между тем, они используют свой охват и влияние, чтобы увековечить заявления об отмывании этики ИИ. Грустно и еще хуже, что все это оказывает медвежью услугу обществу. Позор тем, кто дал себя одурачить. Им нужно поумнеть. Помните, быть одураченным и выглядеть глупо — близкие родственники.

Следующим по порядку идет промывание этики ИИ, что является ошибкой. Представьте, что фирма неплохо соблюдает правила этики ИИ. Мы можем поздравить их с этим. К сожалению, предположим, что в какой-то момент они сделают объявление о своем ИИ, которое не будет хорошо поддерживаться с точки зрения этики ИИ. Если это относительно безобидное утверждение или непреднамеренная ошибка, мы можем предоставить им некоторую свободу действий. Конечно, если точка, которую они сделали, вопиюще выходит за линию, проскальзывание не так легко не заметить. Есть известная фраза о том, что для создания репутации требуется вечность, а чтобы полностью разрушить ее, требуется лишь короткий миг.

Затем мы входим в последние две из четырех категорий.

Это преступники, которые полностью осознают отмывку этики ИИ и сознательно с явным намерением решают использовать ее, возможно, как часть корпоративной стратегии или другими предсказуемыми способами. Основное различие между этими двумя последними состоит в том, что промывание этики ИИ может быть незначительным или иметь значительный и решающий характер. У вас есть некоторые, которые предпочитают растягивать вещи и просто немного выходить за линию. Есть и другие, которые готовы довести этику ИИ до крайности.

Вы можете подумать, что, безусловно, любая экстремальная промывка этики ИИ должна быть очевидной, и что экстремист попадет за руку в банку с печеньем. Все увидят, что у императора нет одежды. К сожалению, учитывая общую неразбериху в отношении ИИ и этики ИИ в современном мире, достаточно неясности, чтобы даже крайняя промывка этики ИИ могла пройти бесплатно.

Это может быть довольно утомительным для тех, кто серьезно и трезво относится к этике ИИ. Они наблюдают, как кто-то другой разбрасывает всевозможные помои, что чрезвычайно очевидно при стирке этики ИИ. Экстремист привлекает огромное внимание СМИ. У них есть свои пресловутые 15 минут славы. Те, кто делает настоящую работу и делает правильные вещи, когда дело доходит до этики ИИ, могут чувствовать законное раздражение и оправданное огорчение, когда другие на рынке безнаказанно предпринимают промывку этики ИИ.

Это можно почти сравнить с приготовлением сока и допингом, которые имеют место в спорте. Спортсмен, который вложил свое сердце и душу в то, чтобы естественным образом стать первоклассным спортсменом, может быть совершенно удручен, если кому-то другому удастся соревноваться на том же уровне и сделать это с помощью запрещенных препаратов, повышающих производительность. Стоит ли вызывать другой спойлер? Может быть, вам следует спокойно принять эти наркотики, борясь с огнём огнём? Это загадка. Мое обсуждение того, как происходит приготовление сока или допинг в области ИИ, см. ссылка здесь.

Теперь, когда мы немного рассказали об отмывании этики ИИ, мы можем представить множество других связанных фраз, которые в равной степени относятся к той же сфере.

Вот некоторые из них, которые мы можем кратко изучить:

  • Театр этики ИИ
  • ИИ этика покупок
  • Избиение этики ИИ
  • Защита этики ИИ
  • Честность в области этики ИИ

Давайте кратко рассмотрим каждую из этих крылатых фраз. Не все согласны с тем, что именно обозначает каждая фраза, поэтому поделюсь с вами своими общими впечатлениями.

Театр этики ИИ

Театр Этики ИИ может быть чем-то похож на мытье Этики ИИ в том смысле, что идея состоит в том, чтобы устроить значительную демонстрацию соблюдения предписаний Этики ИИ продуманным постановочным и церемониальным способом. Если фирма, организующая цирк или театр этики ИИ, действительно придерживалась правил этики ИИ, вы можете возразить, что они по праву должны это делать. В самом деле, вы могли бы также утверждать, что это, надеюсь, вдохновит других соблюдать этику ИИ.

С другой стороны, может показаться, что театр этики ИИ обычно выходит за рамки. Цирковое представление со всеми этими пони и слонами может привести к преувеличению того, что было на самом деле предпринято. Это, в свою очередь, начинает входить во вторую, третью или четвертую категорию вышеупомянутых приемов мытья этики ИИ. Еще предстоит выяснить, является ли театр более хорошим, чем плохим (например, вдохновляющим), или более плохим, чем хорошим (возможно, побуждая других мыть этику ИИ).

Этика ИИ Покупки

Представьте, что компания собирается создать систему ИИ и понимает, что они должны включать аспекты этики ИИ в течение жизненного цикла разработки ИИ. Какими из многочисленных руководств по этике ИИ они должны руководствоваться?

Выбор нескольких из них одновременно может сбить с толку и сделать их усилия по искусственному интеллекту слишком громоздкими. Скорее всего, усилия по разработке будут с большей вероятностью соблюдать этику ИИ, если будет единый внутренне принятый набор, к которому все могут легко обратиться и понять.

Итак, один из способов приземлиться на набор принципов этики ИИ — это выбрать только один из множества доступных. Еще бы взять несколько наборов и попробовать их объединить вместе. Проблема с объединением может заключаться в том, что вы тратите много драгоценной энергии и времени на обсуждение того, как лучше всего объединить наборы в одно всеобъемлющее целое. Такое внимание, вероятно, отвлекло бы вас от процесса разработки, а также могло бы разозлить команду ИИ просто из-за острых дебатов, которые могли возникнуть во время слияния этики ИИ.

В целом, вы также можете попытаться обратить свое внимание на набор рекомендаций по этике ИИ, которые, по вашему мнению, будет проще всего принять. Казалось бы, это прекрасно. Зачем делать жизнь сложнее, чем она, вероятно, уже есть? На том же дыхании, предположим, что вы выбираете разбавленный набор этики ИИ. Вы стремитесь сделать как можно меньше. Вы хотите высоко держать голову, что соблюдаете заповеди этики ИИ, в то же время тайно выбирая минималистов или, может быть, даже меньше из группы.

Некоторые назвали бы это покупками по этике ИИ.

Вы ходите по магазинам, чтобы найти принципы этики ИИ, которые дадут вам самый простой способ заявить, что вы соблюдаете этику ИИ. Это имеет смысл в том, почему вы должны делать больше, чем необходимо? Это, однако, можно исказить, если найти слабо завуалированный набор этики ИИ и цепляться за него, как будто он надежный и добросовестный, тогда как реальность такова, что он разреженный и маргинальный.

Избиение этики ИИ

Понятие нападок на этику ИИ несколько прямолинейно.

Вы оскорбляете или очерняете природу и использование принципов этики ИИ. Распространенной формой нападок было бы настаивать на том, что руководства по этике ИИ бесполезны и не стоят той бумаги, на которой они напечатаны. Еще одна популярная критика заключается в том, что этика ИИ — это академическое упражнение, не имеющее ничего общего с реальным миром. Существует даже увещевание, что этика ИИ — это плохо, по-видимому, потому, что она обеспечивает ложное прикрытие для тех, кто хочет создать впечатление, будто они правильно разрабатывают ИИ. Таким образом, этика ИИ является схемой сокрытия.

Я не буду разглагольствовать о феномене нападок на этику ИИ и предлагаю вам ознакомиться с моим описанием того, почему эти нападки либо неверны, либо, по крайней мере, ошибочны, см. ссылка здесь.

Защита этики ИИ

Экранирование этики ИИ обычно относится к идее, что этика ИИ — это обманчивый вид щита, который может скрыть или скрыть плохих участников и плохие усилия по этике ИИ. Я неоднократно упоминал об этом на протяжении всего обсуждения.

Существует постоянное сомнение, которое некоторые с гордостью демонстрируют, что они используют этику ИИ, а основная реальность заключается в том, что они почти ничего подобного не делают. Для тех, кто говорит, что мы должны полностью избавиться от щита, я склонен возразить, что это сродни выплескиванию ребенка вместе с водой.

Честность в области этики ИИ

Справедливость важна.

Возможно, вы помните, что когда я обсуждал принципы этики ИИ, одно из наиболее часто упоминаемых указаний по этике ИИ состоит в том, чтобы попытаться обеспечить честность ИИ или его подобие честности. Это породило крылатую фразу «отмывка правды», которая иногда используется, чтобы показать возможность того, что система ИИ считается или утверждается справедливой, когда она может быть несправедливой или существует мало доказательств, подтверждающих ее справедливость. Это своего рода смесь этики ИИ с концептуальным рассмотрением честности ИИ, следовательно, более короткий способ выразить это, сказав, что потенциально существует честное омовение это может случиться. Исследователи описывают этот вопрос следующим образом: «В частности, из-за растущей важности концепций честности в машинном обучении у компании может возникнуть соблазн выполнить «отмывку справедливости», которую мы определяем как продвижение ложного представления о том, что модели обучения, используемые компанией, справедливы, хотя это может быть и не так» (Ульрих Айводжи, Хироми Араи, Оливье Фортино, Себастьян Гамбс, Сатоши Хара и Ален Тэпп в «Отмывание справедливости: риск рационализации»).

Есть еще один нюанс в отношении стирки AI Ethics, который вам следует учитывать.

В несколько макроскопическом масштабе высказывается опасение, что рост этики ИИ является щитом или прикрытием для чего-то еще более грандиозного. Возможно, вы знаете, что предпринимаются многочисленные попытки установить законы об управлении ИИ. Это происходит по всему миру. Активные усилия предпринимаются в ЕС, о чем я рассказывал в своих колонках, а также в США, а также во многих странах.

Некоторые предполагают, что соблюдение этики ИИ может быть средством предотвращения принятия этих законов. Компании могут, казалось бы, убедительно утверждать, что новые законы не нужны, потому что использование этики ИИ надлежащим образом решает любые проблемы ИИ. Этика ИИ обычно классифицируется как форма «мягкого права» и обычно является добровольной (при прочих равных условиях). Законы об ИИ классифицируются как так называемые «жесткие законы» и не являются добровольной конструкцией (как правило).

Обычно говорят, что фирмы в большей степени предпочли бы мягкие законы жестким законам, предоставляя им больше свободы и свободы действий. Не все согласны с этим мнением. Некоторые говорят, что мягкие законы позволяют фирмам избегать неподобающих усилий, и единственный способ их пресечь — это принять жесткие законы. Другие отмечают, что фирмы иногда предпочитают жесткие законы, которые могут обеспечить более четкое игровое поле. Жесткие законы потенциально могут заставить всех игроков соблюдать одни и те же правила. Мягкие законы допускают своего рода выбор, тем самым создавая путаницу и нарушая правила игры.

Вот как исследования показывают, что этика ИИ отходит от этого более широкого взгляда на то, что может происходить: «С одной стороны, этот термин используется компаниями как приемлемый фасад, оправдывающий дерегулирование, саморегулирование или управление, ориентированное на рынок, и все чаще отождествляется с корыстным принятием технологическими компаниями видимости этичного поведения. Мы называем такую ​​растущую инструментализацию этического языка технологическими компаниями «промывкой этики». Помимо советов по этике ИИ, промывка этики включает в себя и другие попытки упростить ценность этической работы, которые часто являются частью корпоративной коммуникационной стратегии: наем штатных моральных философов, у которых мало полномочий для формирования внутренней политики компании; упор на гуманный дизайн — например, подталкивание пользователей к сокращению времени, затрачиваемого на приложения, — вместо того, чтобы решать проблемы, связанные с существованием самих продуктов; финансирование работы над «справедливыми» системами машинного обучения, которое положительно скрывает более глубокие вопросы о более широком воздействии этих систем на общество» (Элеттра Биетти, «От мытья этики до избиения этики: взгляд на техническую этику изнутри моральной философии», Материалы конференции 2020 года по справедливости, подотчетности и прозрачности).

Могу поспорить, что на данном этапе этой серьезной дискуссии вам нужны наглядные примеры, которые могли бы продемонстрировать эту тему. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-либо в отношении стирки AI Ethics, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Беспилотные автомобили и этика ИИ

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я надеюсь, что это дает достаточное количество предостережений, чтобы обосновать то, что я собираюсь рассказать.

Вы почти наверняка видели заголовки, провозглашающие смелое утверждение о том, что автономные транспортные средства уже существуют, а беспилотные автомобили уже усовершенствованы. Обычно подразумевается, что аспекты автономии решены. Мы создали искусственный интеллект, который так же хорош, как люди-водители, возможно, даже лучше, чем люди.

Просто чтобы наверняка лопнуть этот пузырь и установить рекорд, это еще не так.

Мы знаем, что водители-люди в Соединенных Штатах ежегодно попадают примерно в 2.5 миллиона автомобильных аварий, в результате чего ежегодно погибает более 40,000 XNUMX человек, см. мою статистику на ссылка здесь. Любой, казалось бы, любой разумный человек приветствовал бы системы вождения с искусственным интеллектом, если бы они могли управлять автомобилем так же безопасно или более безопасно, чем водители-люди. Кроме того, есть надежда, что мы испытаем мобильность для всех, что позволит тем, кто сегодня ограничен в мобильности, иметь автомобили с искусственным интеллектом, которые обеспечивают удобный и недорогой транспорт.

Некоторые ученые мужи шокирующе идут на «лишнюю милю» и делают позорные заявления о том, что беспилотные автомобили не разобьются. Это абсолютно безумно и полностью ложно. Что еще хуже, это создает повышенные ожидания, которые невозможно оправдать. Если вы сможете убедить население в том, что беспилотные автомобили невозможно разбить, они будут орать и реветь в тот момент, когда произойдет хоть одна авария, связанная с беспилотным автомобилем. Мое подробное объяснение того, почему утверждение о нерушимости является сумасшедшим и оказывает медвежью услугу обществу, см. в моем репортаже на ссылка здесь.

Можно сказать, что все эти виды преувеличений или другой лжи подпадают под действие этики ИИ в том смысле, что если вы соблюдаете принципы этики ИИ, вы не должны делать такие дикие и необоснованные заявления. Таким образом, эти искажения и неправда легко подпадают под рубрику отмывки этики ИИ.

Мысль об этике искусственного интеллекта, связанная с автономными транспортными средствами и беспилотными автомобилями, широко распространена, к сожалению. Случайный поиск в Интернете покажет вам миллиарды безумных и неподтвержденных заявлений об автономных транспортных средствах. Это касается не только людей, которые ведут собственные блоги. В этом замешаны крупные информационные агентства. В этом замешаны крупные компании. Стартапы застревают в этом. Фирмы венчурного капитала увязли в этом. Акционеры втянуты в это. И так далее.

Я бы сказал с мрачно-высокой уверенностью, что мытье этики ИИ в этой конкретной области носит угрожающий характер.

Специализированный вариант крылатой фразы об мытье этики ИИ, который влечет за собой автономию и автономные системы, — это понятие автоно-мытья. Вот автор Лиза Диксон, описывающая это: «Автоноуошинг, адаптированный для автоматизации, определяется как практика выдвижения непроверенных или вводящих в заблуждение заявлений, которые искажают соответствующий уровень человеческого контроля, требуемый частично или полуавтономным продуктом, услугой или технологией. Autonowashing также может быть распространен на полностью автономные системы в тех случаях, когда возможности системы преувеличены за пределы того, что может быть надежно выполнено при любых условиях. Autonowashing заставляет что-то казаться более автономным, чем оно есть на самом деле. Цель autonowashing состоит в том, чтобы дифференцировать и/или предложить конкурентное преимущество организации за счет использования поверхностных формулировок, предназначенных для передачи уровня надежности системы, который не соответствует техническим возможностям системы. Autonowashing также может происходить непреднамеренно, когда один неосознанно повторяет ошибочную информацию о возможностях автоматизированной системы другому. Autonowashing — это форма дезинформации, и в некотором смысле вирусная» (Междисциплинарная перспектива транспортных исследований, «Autonowashing: Greenwashing of Vehicle Automation», 2020).

Как напоминание из моего предыдущего указания, есть четыре основных варианта промывки этики ИИ, которые я обычно вижу, и их также легко найти в области автономных транспортных средств:

  • Стиральные машины этики ИИ, которые не знают, что они есть: Этика ИИ омывается невежеством или неграмотностью в отношении ИИ и/или этики ИИ в автономных транспортных средствах.
  • Шайбы этики ИИ, которые подпадают под это: Этика ИИ стирается из-за непреднамеренного проскальзывания, хотя в остальном она подлинна в отношении этики ИИ и ИИ в автономных транспортных средствах.
  • Тонко растягивающиеся шайбы этики ИИ: AI Этика стирается целенаправленным намерением, хотя и чуть-чуть, а иногда почти простительно (или нет) в автономных транспортных средствах.
  • Этические мошенники ИИ, которые знают и нагло торгуют этим: Этика искусственного интеллекта полностью смывается коварным и часто возмутительным дизайном автономных транспортных средств.

Кроме того, вы можете легко увидеть примеры других типов мытья этики ИИ и связанных с мытьем болезней в области автономии, в том числе:

  • Театр этики ИИ в автономных транспортных средствах и беспилотных автомобилях
  • ИИ этика покупок в автономных транспортных средствах и беспилотных автомобилях
  • Избиение этики ИИ в автономных транспортных средствах и беспилотных автомобилях
  • Защита этики ИИ в автономных транспортных средствах и беспилотных автомобилях
  • Честность в области этики ИИ в автономных транспортных средствах и беспилотных автомобилях

Заключение

AI Этика стирки окружает нас повсюду. Мы купаемся в нем.

Я надеюсь, что, обратив ваше внимание на этот серьезный и, казалось бы, бесконечный вопрос, вы сможете различить, когда вас омывают этикой ИИ. Это может быть трудно понять. Те, кто занимается промывкой этики ИИ, могут быть чрезвычайно умными и коварными.

Один из удобных приемов — подмешать в примесь немного правды, которая смешивается с ложью или преувеличениями. Поскольку вы можете легко обнаружить и согласиться с правдивой частью, вы потенциально склонны полагать, что другая неправдивая или вводящая в заблуждение часть также верна. Изящная и неприятная форма обмана.

Назовем это фигней.

Можем ли мы отмыть рты тем, кто откровенно промывает этику ИИ?

С сожалением сообщаю, что это не так легко сделать, как хотелось бы. При этом мы должны попытаться просто потому, что поймать и вызвать мытье этики ИИ может быть трудно и временами подобно Сизифу, толкающему тяжелый валун в гору.

Если вы не знали, Зевс поручил ему толкать этот валун целую вечность, и огромная скала навсегда скатится вниз, как только усилие достигнет вершины. Я думаю, что мы сталкиваемся с теми же трудностями, когда дело доходит до мытья этики ИИ.

Всегда будет больше мытья этики ИИ, которое нужно смыть. Это верная гарантия, в которой нет ничего сомнительного.

Источник: https://www.forbes.com/sites/lanceeliot/2022/06/09/ai-ethics-and-legal-ai-are-flustered-by-deceptive-pretenses-known-as-ai-ethics- мойка, которые являются ложными заявлениями о соблюдении этических норм, в том числе для автономных автомобилей с автоматическим управлением /