Этика ИИ сбита с толку теми специалистами по этике ИИ, которые «стимулируют» этические практики ИИ

В последнее время в новостях часто упоминают о солении.

Я не имею в виду соль, которую вы добавляете в пищу. Вместо этого я поднимаю «солонь», связанную с провокационной и, казалось бы, весьма спорной практикой, связанной с взаимодействием между трудом и бизнесом.

Видите ли, такого рода соление влечет за собой обстоятельство, при котором человек пытается устроиться на работу в фирму, чтобы якобы инициировать или, можно сказать, спровоцировать создание в ней профсоюза. Последние новостные сообщения, обсуждающие это явление, указывают на такие фирмы, как Starbucks, Amazon и другие известные и даже менее известные фирмы.

Сначала я расскажу об основах соления, а затем перейду к похожей теме, которая может вас застать врасплох, а именно, что в области искусственного интеллекта (ИИ), похоже, происходит своего рода соление. Это имеет важное значение с точки зрения этики ИИ. Мой постоянный и обширный обзор этики ИИ и этического ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Теперь давайте рассмотрим основы того, как обычно работает соление.

Предположим, что в компании нет профсоюзов. Каким образом профсоюз мог каким-то образом закрепиться в этой фирме? Одним из способов было бы предпринять действия за пределами компании и попытаться призвать рабочих присоединиться к профсоюзу. Это может включать в себя демонстрацию баннеров рядом со штаб-квартирой компании, рассылку листовок работникам, использование социальных сетей и так далее.

Это определенно подход снаружи-внутрь.

Другим способом было бы подстегнуть искру изнутри, которая могла бы сдвинуть дело с мертвой точки. Если бы хотя бы один сотрудник мог стать чирлидером за поддержку профсоюза в фирме, возможно, это положило бы начало внутренней кавалькаде в поддержку объединения в профсоюзы. Даже если такой сотрудник не выступал в роли откровенного болельщика, он мог бы незаметно заручиться внутренней поддержкой среди рабочих и стать относительно скрытой силой внутри организации, стремящейся к объединению в профсоюзы.

С таким мышлением профсоюз мог бы подумать о том, как такой работник может быть активизирован. Профсоюз может потратить бесконечную энергию, чтобы найти эту иголку в стоге сена. Среди, возможно, сотен или тысяч рабочих фирмы, попытаться найти так называемого избранного, в частности, который будет способствовать объединению в профсоюзы, может быть трудно сделать.

Было бы удобнее «открыть» этого искрообразующего рабочего (или, так сказать, изобрести его).

Это приводит нас к вуаля-идее, что, возможно, компания наймет такого человека на повседневную работу в фирме. По сути, внедрите в фирму подходящего человека, стимулирующего профсоюз. Вам не нужно пытаться апеллировать к толпе работников, о которых говорят извне, а вместо этого ввести одного активатора, чтобы вы точно знали, что ваша искра там работает.

Затем вновь нанятый работник стремится привить интерес профсоюза в фирме, одновременно выполняя ту работу, для которой он был нанят в противном случае (выражая то, что часто называют «подлинным интересом» к работе). Обратите внимание, что человек активно работает в фирме и активно выполняет работу, требуемую от него как от наемного работника. В обычной сфере соления они не только профсоюзный работник, не связанный с конкретной работой, который, возможно, встроен в компанию.

Некоторые провозгласили этот подход.

Они увещевают, что это экономит время и ресурсы с точки зрения профсоюза, стремящегося вдохновить работников фирмы подумать о вступлении в профсоюз. Другие сотрудники, как правило, с большей вероятностью будут готовы слушать и активизироваться коллегой по работе. Альтернативный подход, заключающийся в попытке привлечь внимание извне, считается менее привлекательным, когда коллега по работе обеспечивает мощную мотивацию для работников внутри компании по сравнению с некоторыми «аутсайдерами», которые на самом деле рассматриваются как не более чем равнодушные и безразличные люди, продвигающие цели. аутсайдеры.

Не все довольны подходом к засолке.

Компании часто утверждают, что это чрезвычайно хитрая и нечестная практика. Общий гештальт подхода заключается в том, что шпион помещается в самый центр фирмы. Это не то, для чего человека нанимали. Предположительно, их наняли для выполнения заявленной работы, в то время как вся эта разнообразная махинация выглядит как дьявольское внедрение настоящего троянского коня.

Встречное требование профсоюзов состоит в том, что если человек выполняет заявленную работу, то нет ни вреда, ни нарушения правил. Предположительно, сотрудник, или скажем так любой сотрудник фирмы, как правило, может обратиться за объединением в профсоюзы. Просто этот конкретный сотрудник хочет этого. Тот факт, что они пришли в компанию именно с такой идеей, — это то, о чем может подумать любой вновь нанятый сотрудник.

Подождите секунду, бизнес возразит, это кто-то, кто по дизайну хотел прийти в компанию с целью создания профсоюза. Это их мотивированное желание. Недавно нанятый работник высмеивает процесс найма и неправомерно использует свои стремления к поиску работы в качестве завуалированного предлога для конкретной выгоды профсоюза.

Круг за кругом идет этот жаркий дискурс.

Имейте в виду, что в этих условиях возникает множество юридических вопросов. Все виды правил и положений, которые относятся, например, к Национальному закону о трудовых отношениях (NLRA) и Национальному совету по трудовым отношениям (NRLB), являются частью этих гамбитов. Я не хочу, чтобы у вас сложилось впечатление, что на этих фронтах все просто. Возникают многочисленные юридические сложности.

Мы также должны подумать о разнообразии вариаций соления.

Возьмем возможность того, что человек, желающий получить работу, открыто выступает за профсоюз на протяжении всего процесса поиска работы в фирме. Этот человек может прийти на собеседование в рубашке или другой одежде, из которой ясно видно, что он выступает за профсоюз. Во время интервью они могут выразить надежду на то, что компания когда-нибудь объединится в профсоюзы. И т.п.

В этом случае некоторые утверждали бы, что бизнес знал, во что ввязывался. С самого начала у компании было много указаний на намерения человека. Вы не можете потом ныть, если после приема на работу новый сотрудник сделает все возможное, чтобы профсоюз вошел в дверь. Фирма как бы прострелила себе ногу, а все остальное — просто крокодиловы слезы.

Танец на этом, однако, снова сложнее, чем кажется. В соответствии с юридическими проблемами, которые могут возникнуть, человек, который в противном случае имеет право быть нанятым, может, если компания по найму отклонит его, может утверждать, что он был намеренно упущен из виду в результате антипрофсоюзного предубеждения со стороны компании. И снова NRLA и NRLB втягиваются в грязное дело.

Я быстро проведу вас через множество других соображений, которые возникают в области соления. Я также хотел бы, чтобы вы знали, что соление — это не только явление, присущее только США. Это может произойти и в других странах. Конечно, законы и обычаи стран резко различаются, и, таким образом, соление либо не особенно полезно, либо, возможно, даже прямо запрещено в некоторых регионах, в то время как характер соления может быть значительно изменен в зависимости от его правовых и культурных нравов и фактически может еще есть потенция.

Проконсультируйтесь с вашим любимым адвокатом по трудовому праву в любой интересующей вас юрисдикции.

Некоторые дополнительные факторы, связанные с засолкой, включают:

  • Как оплатить. Иногда профсоюз платит человеку за выполнение задачи по приему на работу в фирму. Затем им может платить как компания, так и профсоюз в течение их пребывания в фирме, или они могут больше не получать зарплату от профсоюза после того, как фирма наняла их.
  • Видимость. Иногда во время процесса найма человек скрывает или хранит молчание о своих намерениях по объединению в профсоюз, в то время как в других случаях человек открыто заявляет о том, что он намерен делать. По-видимому, половинчатый подход заключается в том, что человек скажет, что он намеревается сделать, если его прямо спросят во время интервью, и, таким образом, подразумевает, что фирма должна выяснить такие намерения, что является бременем, которое, как утверждают фирмы, является закулисным попустительством и выходит за правовые рамки.
  • Timing. Когда-то нанятый человек может предпочесть подождать, чтобы взять на себя функции по объединению в профсоюзы. Потенциально они могут ждать недели, месяцы или даже годы для активации. Скорее всего, они, скорее всего, начнут работу после того, как привыкнут к фирме и закрепят личную точку опоры в качестве сотрудника фирмы. Если они начнут немедленно, это может подорвать их попытки показаться инсайдерами и представить их злоумышленниками или аутсайдерами.
  • Предпринятые шаги. Иногда человек открыто объявляет в фирме, что сейчас он стремится к объединению в профсоюзы, что может произойти вскоре после приема на работу или через некоторое время после этого (согласно моему указанию выше о факторе времени). С другой стороны, человек может предпочесть работать под прикрытием, передавая информацию профсоюзу и не привлекая к себе никакого внимания. Иногда это критикуется как солевой крот, хотя другие подчеркивают, что в противном случае человек может подвергнуться внутреннему риску, если он выскажется прямо.
  • Пребывание в должности. Человек, берущий на себя усилия по засолке, может в конечном итоге получить импульс к объединению в профсоюзы (они «солеры»). Потенциально они могли бы оставаться в фирме на протяжении всего процесса объединения в профсоюзы. При этом иногда такой человек решает покинуть зажженную фирму и перейти в другую фирму, чтобы заново начать зажигательную деятельность. Споры по этому поводу идут бурно. Одна точка зрения состоит в том, что это ясно демонстрирует, что у человека не было в сердце работы в фирме. Противоположная точка зрения состоит в том, что они, скорее всего, окажутся в мутной и, возможно, неприемлемой ситуации, если останутся в фирме после того, как усилия по поддержке профсоюзов наберут силу.
  • Результат. Попытка засолки не гарантирует определенного результата. Может случиться так, что человек действительно повышает осведомленность об объединении в профсоюзы, и усилия предпринимаются, следовательно, имеет место «успешное» соление. Другой результат заключается в том, что человек не может получить такую ​​тягу. Затем они либо прекращают преследование и остаются в фирме, возможно, ожидая другого шанса в более позднее время, либо покидают фирму и, как правило, стремятся посолить какую-нибудь другую компанию.
  • Профессиональный солончак. Некоторые люди считают себя ярыми сторонниками соления и гордятся тем, что служат как бы соляром. Они неоднократно делают соление, переходя от фирмы к фирме, как они это делают. Другие будут делать это разово, может быть, из-за особого предпочтения или чтобы посмотреть, на что это похоже, а затем решат больше не повторяться в такой роли. Вы, конечно, можете себе представить виды личного давления и потенциального стресса, которые могут возникнуть, когда вы работаете с солью.

Этих факторов пока будет достаточно, чтобы выделить размах и динамику посола. Я вернусь к этим факторам в контексте ИИ и этических соображений ИИ.

Суть в том, что некоторые люди стремятся наняться в фирму, чтобы инициировать или спровоцировать внедрение принципов этики ИИ в компании. Это их основная мотивация для работы в фирме.

В некотором смысле, они солят не с целью объединения в профсоюзы, а вместо этого «солят», чтобы попытаться укоренить компанию в принципах этического ИИ.

Я скажу намного больше об этом моменте.

Прежде чем перейти к еще большему количеству мяса и картошки о диких и шерстяных соображениях, лежащих в основе соления в контексте ИИ, давайте изложим некоторые дополнительные основы по очень важным темам. Нам нужно кратко окунуться в этику ИИ и особенно в появление машинного обучения (МО) и глубокого обучения (ГО).

Возможно, вы смутно осознаете, что один из самых громких голосов в наши дни в области ИИ и даже за его пределами состоит в том, чтобы требовать большего подобия этического ИИ. Давайте посмотрим, что означает обращение к этике ИИ и этичному ИИ. Кроме того, мы рассмотрим, что я имею в виду, когда говорю о машинном обучении и глубоком обучении.

Один конкретный сегмент или часть этики ИИ, которая привлекает большое внимание средств массовой информации, состоит из ИИ, который демонстрирует неблагоприятные предубеждения и несправедливость. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в неэтичную пропасть (см. мой анализ таких возможностей на ссылка здесь).

Через мгновение я поделюсь с вами некоторыми всеобъемлющими принципами, лежащими в основе этики ИИ. Есть много таких списков, плавающих то здесь, то там. Можно сказать, что единого списка универсальной привлекательности и согласованности пока не существует. Это неприятная новость. Хорошая новость заключается в том, что, по крайней мере, существуют легкодоступные списки этики ИИ, и они, как правило, очень похожи. Все это говорит о том, что с помощью своего рода обоснованной конвергенции мы находим путь к общей общности того, из чего состоит этика ИИ.

Во-первых, давайте кратко рассмотрим некоторые из общих этических принципов ИИ, чтобы проиллюстрировать, что должно быть жизненно важным соображением для любого, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологий, процессов разработки и методов работы, применимых к возможностям ИИ, включая прозрачные и проверяемые методологии, источники данных, процедуры проектирования и документацию.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только кодеры» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как указывалось ранее, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна разбираться в принципах этики ИИ и соблюдать их.

Давайте также убедимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели дико рассуждать о чувствующий AI, эта дискуссия может пойти в совершенно ином направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхразумный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Давайте будем более приземленными и рассмотрим современный вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Давайте вернемся к нашему вниманию к солению в контексте ИИ.

Во-первых, мы удаляем любое подобие элемента объединения из терминологии соления и вместо этого используем соление только как обобщенную парадигму или подход в качестве шаблона. Так что, пожалуйста, отложите в сторону аспекты, связанные с союзами, для целей обсуждения соления, связанного с ИИ.

Во-вторых, как упоминалось ранее, «солонь» в этом контексте ИИ означает, что некоторые люди могут стремиться наняться в фирму, чтобы инициировать или спровоцировать установление принципов этики ИИ в компании. Это их основная мотивация для работы в фирме.

Чтобы уточнить, есть абсолютно много тех, кто нанимается в фирму, и они уже имеют в виду, что этика ИИ важна. Это, однако, не является основной причиной их попыток нанять конкретную фирму, представляющую интерес. По сути, их нанимают для выполнения какой-либо работы по разработке или развертыванию ИИ, и для этого они легко привносят в себя твердую веру в этический ИИ.

Затем они будут работать как можно лучше, чтобы внедрить или вдохновить этические соображения ИИ в компании. Хорошо для них. Нам нужно больше тех, кто имеет это как острое сердечное желание.

Но это не та соль, на которую я здесь намекаю. Представьте, что кто-то выбирает конкретную компанию, которая, похоже, мало что делает для соблюдения этики ИИ. Человек решает, что его наймет эта фирма, если он сможет делать это в какой-то повседневной работе с ИИ (или, может быть, даже в роли, не связанной с ИИ), и тогда его основная задача будет заключаться в том, чтобы внедрить или внедрить принципы этики ИИ в компании. Компания. Это не является их основной служебной обязанностью и даже не указано в их служебных обязанностях (я упоминаю об этом, потому что, очевидно, если кто-то нанят для намеренного внедрения этики ИИ, он не «солит» в том смысле, в каком здесь используются коннотации и подобия).

Этот человек не особо заботится о работе как таковой. Конечно, они будут делать все, в чем заключается работа, и, вероятно, они достаточно квалифицированы для этого. Между тем, их реальная цель состоит в том, чтобы стимулировать этический ИИ к тому, чтобы он стал неотъемлемой частью фирмы. Это миссия. Это цель. Сама работа является просто средством или средством, позволяющим им делать это изнутри.

Можно сказать, что они могли бы сделать то же самое вне фирмы. Они могли бы попытаться лоббировать команды ИИ в компании, чтобы они более активно участвовали в этике ИИ. Они могут попытаться пристыдить фирму, чтобы сделать это, возможно, размещая сообщения в блогах или предпринимая другие шаги. И так далее. Дело в том, что они по-прежнему будут аутсайдерами, как указывалось ранее при обсуждении всеобъемлющей предпосылки соления.

Солевой человек ИИ лжет?

Нам снова напоминают о том же вопросе, заданном о союзном контексте соления. Человек может настаивать на том, что никакого обмана нет. Их наняли для работы. Они делают свою работу. Так уж получилось, что вдобавок они являются внутренними сторонниками этики ИИ и прилагают все усилия, чтобы заставить других делать то же самое. Нет вреда, нет фола.

Они, вероятно, также укажут, что нет никаких особых недостатков в том, чтобы они подталкивали фирму к этичному ИИ. В конце концов, это поможет компании потенциально избежать судебных исков, которые в противном случае могли бы возникнуть, если ИИ производится без соблюдения принципов этики ИИ. Тем самым они спасают компанию от самой себя. Даже если человек, возможно, не особенно заботится о выполнении текущей работы, он выполняет работу и одновременно делает компанию мудрее и безопаснее благодаря громкому продвижению к этичному ИИ.

Подождите секунду, кто-то возразит, этот человек лукавит. Они, по-видимому, собираются покинуть корабль, как только произойдет принятие этики ИИ. Их сердце не в фирме и не в работе. Они используют компанию для продвижения своих собственных планов. Конечно, повестка дня кажется достаточно хорошей, стремясь поставить этический ИИ на первое место, но это может зайти слишком далеко.

Видите ли, далее идет аргумент, что стремление к этике ИИ может стать чрезмерно усердным. Если человек пришел, чтобы инициировать этический ИИ, он может не увидеть более широкой картины того, с чем имеет дело фирма в целом. Помимо всего прочего, этот человек может близоруко отвлекать фирму и не желать допустить принятие этики ИИ на разумной основе и в разумном темпе.

Они могут стать разрушительными недовольными, которые просто постоянно спорят о том, где находится фирма с точки зрения этических принципов ИИ. Других разработчиков ИИ может отвлекать болтовня с одной мелодией. Включение этики ИИ, безусловно, разумно, хотя театральность и другие потенциальные сбои внутри фирмы могут скорее затормозить прогресс этического ИИ, чем помочь ему.

Мы ходим по кругу.

Теперь мы можем вернуться к тем дополнительным факторам, связанным с засолкой, которые я предлагал ранее:

  • Как оплатить. Вполне возможно, что человеку первоначально заплатила какая-то организация, которая хочет заставить фирму принять этику ИИ, возможно, стремясь сделать это безобидно или, может быть, продать фирме определенный набор инструментов или методов этики ИИ. В целом маловероятно, но стоит упомянуть.
  • Видимость. Человек может особо не упоминать о своей религиозной миссии по этике ИИ при приеме на работу. В других случаях они могут убедиться, что это находится в центре внимания, чтобы фирма по найму безошибочно понимала их благочестивую направленность. Однако это, скорее всего, будет сформулировано так, будто этика ИИ является второстепенной задачей, а работа — их главной заботой, а не наоборот.
  • Timing. Когда-то нанятый человек может предпочесть подождать, чтобы начать свои занятия по этике ИИ. Потенциально они могут ждать недели, месяцы или даже годы для активации. Скорее всего, они, скорее всего, приступят к работе после того, как привыкнут к фирме и закрепят личную точку опоры в качестве сотрудника фирмы. Если они начнут немедленно, это может подорвать их попытки показаться инсайдерами и представить их злоумышленниками или аутсайдерами.
  • Предпринятые шаги. Иногда человек открыто объявляет внутри фирмы, что теперь он стремится привлечь внимание к этике ИИ, что может произойти вскоре после приема на работу или через некоторое время после этого (согласно моему указанию выше о факторе времени). С другой стороны, человек может предпочесть работать под прикрытием, тихо работая в фирме и не привлекая к себе особого внимания. Они также могут передавать прессе и другим посторонним информацию о том, какие упущения или недостатки в области этики ИИ имеют место в фирме.
  • Пребывание в должности. Человек, берущийся за соление, может в конечном итоге получить импульс к этике ИИ. Потенциально они могут оставаться в фирме на протяжении всего процесса внедрения этического ИИ. При этом иногда такой человек решает покинуть зажженную фирму и перейти в другую фирму, чтобы заново начать зажигательную деятельность. Споры по этому поводу идут бурно. Одна точка зрения состоит в том, что это ясно демонстрирует, что у человека не было в сердце работы в фирме. Противоположная точка зрения заключается в том, что они, скорее всего, окажутся в мутной и, возможно, неприемлемой ситуации, если останутся в фирме, если их теперь заклеймят как громогласных или нарушителей спокойствия.
  • Результат. Попытка засолки не гарантирует определенного результата. Может случиться так, что человек действительно повышает осведомленность об этическом ИИ, и усилия предпринимаются, следовательно, имеет место «успешное» соление. Другой результат заключается в том, что человек не может получить такую ​​тягу. Затем они либо прекращают преследование и остаются в фирме, возможно, ожидая другого шанса в более позднее время, либо покидают фирму и, как правило, стремятся посолить какую-нибудь другую компанию.
  • Профессиональный солончак. Некоторые люди могут считать себя ярыми сторонниками соления по этике ИИ, и они гордятся тем, что служат посолщиками. Они неоднократно делают соление, переходя от фирмы к фирме, как они это делают. Другие могут сделать это один раз, может быть, из-за особого предпочтения или чтобы посмотреть, на что это похоже, а затем решить не повторяться в такой роли. Вы, конечно, можете себе представить виды личного давления и потенциального стресса, которые могут возникнуть, когда вы работаете с солью.

Пока неизвестно, приживется ли этот вид соления, ориентированного на этику ИИ. Если фирмы не спешат продвигать этический ИИ, это может привести к тому, что пылкие специалисты по этике ИИ возьмутся за сольные попытки. Они могут не совсем сразу осознавать, что занимаются солением. Другими словами, кто-то идет в компанию X и пытается привлечь внимание к этике ИИ, возможно, делает это и понимает, что должен сделать то же самое в другом месте. Затем они переходят к компании Y. Полоскание и повторение.

Опять же, акцент делается на том, что соблюдение этики ИИ является их высшим приоритетом. Получение работы второстепенно или даже не особенно важно, за исключением возможности проникнуть внутрь и предпринять инсайдерские усилия по солению, связанные с этическим ИИ.

Я также добавлю, что те, кто изучает и анализирует аспекты этики ИИ, теперь имеют несколько новое дополнение к темам исследований этического ИИ:

  • Следует ли вообще мириться с этими усилиями по солению этики ИИ или избегать их?
  • Что движет теми, кто хотел бы посолить в этом контексте ИИ?
  • Как компании должны реагировать на воспринимаемый акт искусственного соления контекста?
  • Будут ли разработаны методологии для поощрения подобного соления, связанного с ИИ?
  • И т.д.

В какой-то степени именно поэтому этика ИИ и этический ИИ являются такой важной темой. Предписания этики ИИ заставляют нас сохранять бдительность. Технологи ИИ могут время от времени увлекаться технологиями, особенно оптимизацией высоких технологий. Они не обязательно учитывают более крупные социальные последствия. Иметь этическое мышление ИИ и делать это неотъемлемо от разработки и внедрения ИИ жизненно важно для создания надлежащего ИИ, включая (возможно, неожиданно или по иронии судьбы) оценку того, как этика ИИ принимается фирмами.

Помимо использования принципов этики ИИ в целом, возникает соответствующий вопрос о том, должны ли мы иметь законы, регулирующие различные виды использования ИИ. На федеральном уровне, уровне штатов и на местном уровне обсуждаются новые законы, касающиеся диапазона и характера разработки ИИ. Усилия по разработке и принятию таких законов носят постепенный характер. Этика ИИ служит, по крайней мере, временной мерой и почти наверняка в какой-то степени будет непосредственно включена в эти новые законы.

Имейте в виду, что некоторые категорически утверждают, что нам не нужны новые законы, касающиеся ИИ, и что наших существующих законов достаточно. На самом деле, они предупреждают, что, если мы примем некоторые из этих законов об ИИ, мы убьем золотого гуся, пресекая достижения в области ИИ, которые предлагают огромные социальные преимущества.

Могу поспорить, что на данном этапе этой серьезной дискуссии вам нужны наглядные примеры, которые могли бы продемонстрировать эту тему. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-то о солении, связанном с ИИ, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Беспилотные автомобили и этика искусственного интеллекта

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я надеюсь, что это дает достаточное количество предостережений, чтобы обосновать то, что я собираюсь рассказать.

Давайте набросаем сценарий, который демонстрирует ситуацию с солью, связанную с ИИ.

Автопроизводитель, стремящийся к разработке полностью автономных беспилотных автомобилей, спешит с испытаниями на дорогах общего пользования. Фирма находится под большим давлением, чтобы сделать это. За ними наблюдает рынок, и если кажется, что они не находятся в авангарде разработки беспилотных автомобилей, цена их акций соответственно страдает. Кроме того, они уже вложили миллиарды долларов, и инвесторы с нетерпением ждут того дня, когда компания сможет объявить, что их беспилотные автомобили готовы к повседневному коммерческому использованию.

Разработчик ИИ внимательно наблюдает издалека за усилиями автопроизводителя. В новостях все чаще появляются сообщения о том, что система управления ИИ сбивается с толку или совершает ошибки. Различные случаи включают столкновения с другими автомобилями, столкновения с велосипедистами и другие суровые инциденты.

Фирма обычно старается держать это в секрете. Разработчик ИИ в частном порядке поговорил с некоторыми инженерами фирмы и узнал, что предписания этики ИИ в лучшем случае даются только на словах. О том, как я освещаю такие вопросы уклонения бизнеса от этического ИИ, см. ссылка здесь.

Что собирается делать этот разработчик ИИ?

Они чувствуют себя обязанными что-то делать.

Давайте сделаем небольшое разветвление и рассмотрим два пути, каждый из которых может быть предпринят этим разработчиком ИИ.

Один из путей заключается в том, что разработчик ИИ обращается к средствам массовой информации, чтобы попытаться выявить кажущееся отсутствие должного внимания к принципам этики ИИ со стороны автопроизводителя. Возможно, этот обеспокоенный специалист по ИИ решает вести блоги или создавать видеоблоги, чтобы привлечь внимание к этим проблемам. Другая возможность заключается в том, чтобы они заставили существующего члена команды ИИ стать своего рода разоблачителем, тема, которую я освещал в ссылка здесь.

Этот разработчик ИИ явно считает аутсайдерским подходом.

Другой путь заключается в том, что разработчик ИИ верит в свою интуицию, что он сможет сделать больше внутри фирмы. Набор навыков разработчика ИИ хорошо подходит для аспектов ИИ, связанных с беспилотными автомобилями, и они могут легко подать заявку на открытые вакансии инженера ИИ в компании. Разработчик ИИ решает сделать это. Кроме того, импульс направлен исключительно на то, чтобы заставить автопроизводителя более серьезно относиться к этичному ИИ. Сама работа не имеет особого значения для этого разработчика ИИ, за исключением того, что теперь он сможет убедительно работать изнутри.

Может случиться так, что разработчик ИИ получит работу, но затем обнаружит огромное внутреннее сопротивление, а стремление к этичному ИИ бессмысленно. Человек уходит из компании и решает нацелиться на другого автопроизводителя, который может быть более готов понять, чего хочет достичь разработчик ИИ. Опять же, они делают это для демонстративного соблюдения этических соображений ИИ, а не для опоры того, из чего состоит работа ИИ.

Заключение

Представление об этих усилиях, связанных с ИИ, как о форме соления обязательно вызовет у некоторых изжогу из-за чрезмерного использования уже устоявшейся терминологии или словарного запаса. Соление в значительной степени укоренилось в профсоюзной деятельности, связанной с трудом и бизнесом. Попытки перегрузить слово этими другими видами кажущейся родственной деятельности, хотя и совершенно не связанной с объединением в профсоюзы, потенциально могут ввести в заблуждение и сбить с толку.

Предположим, мы придумали другую фразеологию.

Перчинка?

Что ж, похоже, это не вызывает таких же чувств, как соление. Было бы непросто попытаться добиться того, чтобы это было оговорено и включено в наш повседневный языковой лексикон.

Что бы мы ни придумали, какое бы название или крылатая фраза ни казались подходящими, одно мы знаем точно. Попытка заставить фирмы принять этику ИИ по-прежнему является тяжелой битвой. Нам нужно попробовать. Попытка должна быть сделана правильными способами.

Похоже, что независимо от того, с какой стороны забора вы упадете, мы должны принять это предупреждение с подходящей долей скептицизма.

Источник: https://www.forbes.com/sites/lanceeliot/2022/08/13/ai-ethics-flummoxed-by-those-salting-ai-ethicists-that-instigate-ethical-ai-practices/