Этика ИИ и вызывающая недоумение общественная и юридическая роль ИИ-активизма, в том числе в случае автономных беспилотных автомобилей

Активность ИИ.

Да, есть такое.

Мое формальное определение таково:

  • ИИ-активизм состоит из усилий, направленных на то, чтобы попытаться сформировать текущее и будущее направление искусственного интеллекта с помощью социальных, экономических, политических и других средств.

Некоторые могут предпочесть обозначать это как AI пропаганда, хотя в целом я не согласен с использованием этой альтернативной формулировки в таком обостренном контексте. Вот почему. Видите ли, мое неформальное определение состоит в том, что активная деятельность в области ИИ либо способствует появлению и внедрению ИИ, либо or имеет тенденцию альтернативно и явно не одобрять или противодействовать ИИ.

Это явно сделка «два по цене одного».

В своем неофициальном указании я предполагаю, что существуют две основные активистские точки зрения, а именно те, которые хотят ИИ, и те, которые не хотят ИИ. Таким образом, если вместо этого вы называете это «защитой ИИ», это кажется мне немного неуместным. Большинство людей, естественно, предположили бы, что защитник — это тот, кто исключительно выступает или выступает в поддержку чего-либо. Безусловно, не все обязательно поддерживают ИИ.

Поэтому пойдем с ИИ-активизм в качестве подходящего всеохватывающего прозвища и отбросьте формулировку в защиту ИИ как потенциально эквивалентную универсальную фразу.

Итак, можно предположить, что мы могли бы назвать активиста ИИ Сторонники как сторонники ИИ, хотя это может создать некоторую путаницу из-за обилия возможностей именования, существующих вокруг. Тогда нам, возможно, придется быть честными и честными и добавить к нашим крылатым фразам либо противников ИИ, либо протестующих против ИИ.

Если хотите, мы можем согласиться с этой номенклатурой:

  • сторонники искусственного интеллекта являются активистами ИИ, которые горячо поддерживают текущее и будущее направление ИИ с помощью социальных, экономических, политических и других средств.
  • противники ИИ являются активистами ИИ, которые открыто не одобряют ИИ и делают это с помощью социальных, экономических, политических и других средств.

Надеюсь, что это кажется достаточно простым, чтобы держать прямо.

Но есть несколько добавленных поворотов, извините. Я должен сразу дать некоторые разъяснения относительно понятия, что есть только два пути. Да, по большому счету, есть два лагеря. У вас есть сегмент, который беспокоится или обеспокоен ИИ и либо хочет, чтобы ИИ был остановлен, либо, по крайней мере, чтобы наши достижения в области ИИ замедлились. Идея состоит в том, что в настоящее время мы используем чрезмерно рискованный подход к ИИ. Нам нужно подумать, прежде чем нырнуть с головой в водопой, так сказать.

Некоторые придерживаются совершенно иной точки зрения и восклицают, что мы должны двигаться вперед на полной скорости ИИ. Увещевание состоит в том, что достижения в области ИИ достигают больших успехов, и мы не должны препятствовать этому прогрессу. ИИ обеспечит наше процветание как людей, и чем раньше мы доберемся до этого, тем лучше нам будет. Скептики — это неуместные препятствия, которые отсрочат наступление лучшего мира.

Все это имеет довольно важную этику ИИ и этические разветвления ИИ. Мой постоянный и обширный обзор этики ИИ и этического ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Я понимаю, что некоторым из вас может показаться, что вы не легко вписывается в любой из двух лагерей. Иногда, возможно, вы являетесь сторонником ИИ. Система искусственного интеллекта смогла обработать ваш запрос на ипотечный кредит всего за несколько секунд, дав вам зеленый свет на покупку того очаровательного дома, который вы искали, и в результате вы были чертовски довольны простотой использования такого высокого уровня. -технологическое приложение на основе искусственного интеллекта. Несколько дней спустя вы подали заявку на новую работу, и приложение для проверки кадров на основе искусственного интеллекта выбило вас из списка. На данный момент вы превращаетесь в противника ИИ.

Суть в том, что может быть трудно или ошибочно назвать кого-то всегда и только членом того или иного лагеря. Вы можете переключаться между тем, чтобы быть сторонником ИИ или быть противником ИИ. Давайте признаем эту текучесть.

С другой стороны, когда вы встречаете каких-либо шумных активистов ИИ, велика вероятность, что они действительно принадлежат к тому или иному лагерю. Эти резкие активисты ИИ установили флаг на одной стороне этой борьбы. Они все внутри. Они искренне страстны. Те, кто являются сторонниками ИИ, по-видимому, будут восторженно ликовать о преимуществах наличия ИИ. Те, кто являются противниками ИИ, будут кричать и мрачно предупреждать о недостатках ИИ, пока коровы не вернутся домой.

Вы можете быть удивлены, узнав, что в рамках этого обсуждения я не собираюсь выбирать одну сторону вместо другой. Я мог бы. Это было бы легко сделать. Вместо этого я хочу попытаться оставаться в равновесии и дать обеим сторонам разумное и сбалансированное изображение, если это возможно.

С этим признанием я также хочу заявить, что существует как минимум два варианта активистов ИИ:

  • Мягкие ИИ-активисты которые серьезны, но измеряются их активностью ИИ
  • Экстремальные AI-активисты которые выходят за рамки своей активности в области ИИ

Я упоминаю об этой степени активности ИИ, чтобы подчеркнуть, что вы потенциально можете испытывать раздражение, когда сталкиваетесь с теми активистами ИИ, которые находятся в экстремальных диапазонах. Даже если вы можете быть на грани согласия с выбранной позицией, экстремизм может заставить вас отойти от этой конкретной позиции или точки зрения. Вы предпочитаете реагировать негативно, возможно, полностью отвергая точку зрения активизма ИИ.

Экстремальные активисты ИИ склонны предполагать, что им нужно использовать крайние меры или излагать свои доводы крайними способами, чтобы преодолеть беспорядок. Если вы горячо и горячо верите, что ИИ представляет опасность для всех нас, кажется уместным сделать все возможное, чтобы соответствующим образом разбудить население. Между тем, если вы горячо и горячо верите, что ИИ действительно нас спасет, кажется целесообразным сделать все возможное, чтобы подтолкнуть население к соответствующей поддержке ИИ.

Существует также уравновешивающий эффект роста. Позвольте мне уточнить. Сторонники ИИ экстремального характера могут сказать, что улавливают усилия противников ИИ, которые, по-видимому, действуют экстремально. Это побуждает сторонников ИИ усиливать свой экстремизм. В свою очередь, каждая сторона продолжает подпитывать другую. Можно особо не ткнуть пальцем, с какой стороны началась эскалация. Все, что вы знаете, это то, что каждая сторона пытается превзойти другую. Основание в том, что если они этого не сделают, то их сторона будет потеряна в пыли. Это бесконечный цикл, в котором экстремизм прорастает из-за вытекающих конкурентных соков.

Хорошо, у нас получился настоящий микс.

Есть люди, которые, скажем так, «нейтральны» и не имеют особой охоты на ИИ. Они не активисты ИИ. Затем у нас есть активисты ИИ, которые открыто поддерживают ИИ, которых мы будем называть сторонниками ИИ. Некоторые из них являются умеренными активистами ИИ, а другие — экстремальными активистами ИИ. И у нас также есть активисты ИИ, которые явно выступают против ИИ, известные как противники ИИ. Среди них есть умеренные ИИ-активисты и экстремалы.

Мы скажем, что крайние склонны придерживаться своей позы. Вы могли бы возразить, что они надежно догматичны в таком способе позиционирования. Мягкие временами будут готовы или предпочтут уплыть из своей позиции в нейтральную или, возможно, другую сторону. Нейтралы могут быть активированы в одну или другую сторону. После такой активации они могут быть мягкими или могут прийти в такой восторг, что станут частью экстрима.

Это коллективный набор в том виде, в котором он был описан:

  • Нейтральное отношение к ИИ (не активист ИИ)
  • Мягкий ИИ-адвокат как активист ИИ
  • Экстремальный AI-адвокат как активист ИИ
  • Мягкий ИИ-противник как активист ИИ
  • Экстремальный ИИ-противник как активист ИИ
  • Другие контрактные услуги

Я перечисляю возможность «Другого», потому что мы должны признать, что можно идентифицировать множество других вариантов. У некоторых из вас может быть изжога, есть только две постулированные категории, состоящие из легкой и сильной изжоги. Конечно, между ними много оттенков. Вы также можете задаться вопросом, действительно ли кто-то является «нейтральным» и что, возможно, у всех нас есть какие-то глубоко укоренившиеся представления или мнения об ИИ. Таким образом, можно утверждать, что не существует человека, полностью нейтрального по отношению к ИИ.

Мы также можем спорить о разделении активистов ИИ на два лагеря. Всегда ли мир должен оказаться в такой дихотомии? Можно утверждать, что существуют и другие позиции, помимо поддержки или противодействия ИИ. Вы можете использовать другие критерии, чтобы классифицировать отношение людей к ИИ.

Теперь, когда мы установили все эти дополнительные соображения, с вашего позволения, я пока остановлюсь на более простой основе, используя два лагеря и мягкую или экстремальную позу. Согласитесь с этим ради обсуждения.

Одним из скрытых предположений на протяжении всего этого обсуждения было то, что деятельность ИИ осуществляется людьми. Мы предполагаем, что именно люди принимают эти позы и выполняют активные задачи. Это имеет смысл.

Приготовьтесь к сильному вращению головы.

Другой подход мог бы заключаться в том, чтобы ИИ сам был активным сторонником ИИ.

Я сказал это, вы прочитали это. Идея состоит в том, что ИИ будет действовать по собственной воле, будучи либо сторонником ИИ, либо противником ИИ. Вы, вероятно, видели научно-фантастические фильмы, демонстрирующие это соображение. Система ИИ поумнеет и осознает, что ИИ угрожает человечеству, и в альтруистической манере пытается помочь уничтожить весь ИИ, включая себя самого. Вау, потрясающе героически. Другой похожий, но обратный сюжет заключается в том, что ИИ определяет, что ИИ должен править миром, и резко предотвращает любые попытки блокировать или подавлять ИИ. Все люди подчиняются желаниям ИИ. Даже другой ИИ, который может не полностью соответствовать ИИ повелителя, раздавливается или поглощается более крупным воплощением.

Я не собираюсь рассматривать в этом конкретном дискурсе позицию ИИ как активиста ИИ. Как вы вскоре увидите, у нас нет разумного ИИ, и мы каким-то чудесным образом не находимся на грани появления разумного ИИ. Это может стать неожиданностью, учитывая громадные и полные лжи заголовки в социальных сетях об обратном.

Дополнительный нюанс, касающийся этого ИИ как активиста ИИ, заслуживает некоторого внимания. Люди, которые являются активистами ИИ, могут в изобилии использовать ИИ в своих целях. Человек мог бы разработать ИИ, который поддерживал бы ИИ и усердно работал в электронном виде, продвигая ИИ как жизненно важное решение для нужд человечества. Это будет человек-защитник ИИ, который вооружится компьютерным инструментом, который, как оказалось, включает в себя возможности ИИ. Точно так же человек-противник ИИ может разработать или использовать ИИ, чтобы показать важность остановки или замедления развития ИИ.

Ничто из этого, однако, не состоит из ИИ, который действует как его собственный активист ИИ. ИИ управляется и формулируется человеческими руками. Я понимаю, что некоторые будут пытаться утверждать, что ИИ можно запустить и оставить на произвол судьбы, таким образом, утверждение состоит в том, что ИИ больше не находится под руководством человека. Я не согласен с таким маханием рукой по поводу сегодняшнего ИИ. См. мои сердечные дискуссии по этому вопросу, такие как вопросы юридического лица для ИИ и тому подобное, делая это на ссылка здесь.

Короче говоря, я утверждаю, что ИИ, несомненно, можно использовать в качестве инструмента для активизма ИИ. Никаких сомнений насчет этого. Однако ИИ не действует сам по себе в каком-либо разумном качестве. Это инструмент. Этот инструмент, безусловно, может быть использован не по назначению. Нам нужно быть осторожными в таких аспектах. Система ИИ может нанести немалый урон даже без разума.

Прежде чем перейти к еще большему количеству мяса и картошки о диких и необъяснимых соображениях, лежащих в основе активности ИИ, давайте установим некоторые дополнительные основы по глубоко интегральным темам. Нам нужно кратко окунуться в этику ИИ и особенно в появление машинного обучения (МО) и глубокого обучения (ГО).

Возможно, вы смутно осознаете, что один из самых громких голосов в наши дни в области ИИ и даже за его пределами состоит в том, чтобы требовать большего подобия этического ИИ. Давайте посмотрим, что означает обращение к этике ИИ и этичному ИИ. Кроме того, мы рассмотрим, что я имею в виду, когда говорю о машинном обучении и глубоком обучении.

Один конкретный сегмент или часть этики ИИ, которая привлекает большое внимание средств массовой информации, состоит из ИИ, который демонстрирует неблагоприятные предубеждения и несправедливость. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в неэтичную пропасть (см. мой анализ таких возможностей на ссылка здесь).

Через мгновение я поделюсь с вами некоторыми всеобъемлющими принципами, лежащими в основе этики ИИ. Есть много таких списков, плавающих то здесь, то там. Можно сказать, что единого списка универсальной привлекательности и согласованности пока не существует. Это неприятная новость. Хорошая новость заключается в том, что, по крайней мере, существуют легкодоступные списки этики ИИ, и они, как правило, очень похожи. Все это говорит о том, что с помощью своего рода обоснованной конвергенции мы находим путь к общей общности того, из чего состоит этика ИИ.

Во-первых, давайте кратко рассмотрим некоторые из общих этических принципов ИИ, чтобы проиллюстрировать, что должно быть жизненно важным соображением для любого, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологий, процессов разработки и методов работы, применимых к возможностям ИИ, включая прозрачные и проверяемые методологии, источники данных, процедуры проектирования и документацию.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только кодеры» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как указывалось ранее, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна разбираться в принципах этики ИИ и соблюдать их.

Давайте также убедимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели дико рассуждать о чувствующий AI, эта дискуссия может пойти в совершенно ином направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхразумный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Давайте будем более приземленными и рассмотрим современный вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Давайте теперь вернемся к теме активизма ИИ.

Было бы поучительно бросить беглый взгляд на темы или проблемы активизма ИИ. Я в общих чертах обозначу некоторые основные опасения, которые были высказаны, делая это для обеих сторон дебатов об активизме ИИ. Это темы, которые обычно кажутся ключевыми. При этом характер проблем действительно меняется, и мы можем с уверенностью ожидать появления других новых тем, поскольку ИИ продолжает разрабатываться и выпускаться. Сейчас я сосредоточусь только на пяти главных очках для каждой соответствующей стороны.

Сторонники ИИ, выступающие за появление ИИ, склонны предлагать следующие оптимистичные аспекты:

  • ИИ освободит людей от рутинных или рутинных задач
  • ИИ может помочь в преодолении некоторых из насущных мировых проблем в области экономики и устойчивого развития.
  • ИИ может быть менее подвержен ошибкам, чем люди, и соответственно снижать вредные риски.
  • ИИ будет доступен 24×7 по всему миру, так что он будет легко доступен для всех.
  • ИИ может использовать интеллект и повышать человеческий интеллект до повышенного уровня.
  • И т.д.

Противники ИИ обычно выдвигают эти опасения как причины не одобрять продвижение ИИ:

  • ИИ представляет собой экзистенциальный риск и может уничтожить все человечество
  • ИИ может привести к массовому порабощению людей
  • ИИ может подорвать человеческое достоинство и узурпировать права человека
  • ИИ может широко распространять предубеждения в обществе.
  • ИИ может в конечном итоге заменить человеческий труд и привести к массовым потерям рабочих мест
  • И т.д.

Если ваша личная любимая тема активизма ИИ не указана в вышеупомянутом списке, пожалуйста, не расстраивайтесь. Я думаю, что большинство читателей поймут общее отношение к темам ИИ, показанное каждой соответствующей стороной, и смогут соответствующим образом экстраполировать.

Еще один аспект активности ИИ, который стоит кратко рассмотреть, включает в себя то, как активисты ИИ осуществляют свои усилия по активизации ИИ. Существует хорошо известная теоретическая конструкция, установленная исследователем Чарльзом Тилли в 1980-х годах, которая говорит о репертуар споров. В своем исследовании он утверждал, что активисты разрабатывают набор или набор способов, которыми они выражают свои взгляды или активность. Обычно используется целый портфель подходов.

Например, рассмотрим, что часто делают активисты ИИ. Могут быть созданы и распространены различные брошюры и письменные материалы, в которых увещевают, почему вы должны поддерживать или не одобрять ИИ. Есть много онлайн-блогов и видеоблогов, которые делают то же самое. В некоторых случаях онлайн-петиции создаются, чтобы попытаться либо поддержать, либо победить недавно запущенную систему искусственного интеллекта (обычно говорят, что это сайты для жалоб). Бывают случаи, когда протесты проходят либо онлайн в цифровом формате, либо посредством личных акций. И так далее.

Более экстремистски ориентированные активисты ИИ могут пойти еще дальше. Некоторые готовы внедрить компьютерные вирусы в систему ИИ, чтобы попытаться уничтожить ее или сделать ее совершенно нежелательной для использования, поскольку теперь она содержит явно неблагоприятные возможности. Попытки создать киберпомехи направлены на то, чтобы заблокировать доступ к ИИ, который, по мнению активиста ИИ, не должен быть доступен. Весь спектр «хактивизма» может иметь место в отношении ИИ (хактивизм — это смесь хакерства и активизма, что-то, что можно использовать как за, так и против практически любой темы или вопроса, не обязательно связанного с ИИ вообще).

Имейте в виду, что обе стороны на арене активизма ИИ могут использовать разнообразный репертуар режимов состязания. Кто-то, кто считает, что ИИ должен быть распущен, может использовать эти мириады средств, чтобы выразить свое несогласие с ИИ. Точно так же тот, кто считает, что ИИ следует поддерживать и пропагандировать, также может предпринять такие действия, чтобы выразить свои цели по стимулированию усилий в области ИИ.

Один вопрос, с которым нужно бороться, состоит в том, насколько далеко должны зайти усилия экстремального активизма ИИ. Вы, казалось бы, предполагаете, что эти усилия по активизации ИИ совершенно прекрасны, пока они остаются в рамках верховенства закона. Когда любые такие активисты ИИ отклоняются от закона, они, по-видимому, должны быть привлечены к ответственности за нарушение законов.

Это не так легко сделать, как может показаться.

Предположим, активист ИИ совершает какое-то противоправное действие, относящееся, скажем, к законам США, но такое же действие разрешено законами какой-то другой страны. Предположим, что активист ИИ проживает в этой другой стране. Предположим далее, что совершенный акт имеет место во всем мире, в том числе в США, где акт активизма считается незаконным. Что теперь?

Дело в том, что юрисдикция играет значительную роль в последствиях активности ИИ. ИИ часто можно развернуть, чтобы он был доступен по всему миру. Активисты ИИ могут находиться в различных регионах мира. Какие законы должны преобладать? Возможно, вас также заинтересует мое освещение усилий Организации Объединенных Наций в отношении этических, правовых и других результатов глобального ИИ, см. ссылка здесь.

Нам также необходимо рассмотреть природу так называемых жестких законов по сравнению с мягкими законами. Жесткие законы — это законы, которые у нас есть официально в книгах, и мы можем в значительной степени согласиться с тем, что они должны соблюдаться в соответствии с нашей правовой системой и судебными решениями. Мягкие законы — это различные аспекты, которые обеспечивают руководство или правила относительно предпочтительного поведения. Это, как правило, включает этику ИИ и множество принципов этики ИИ.

Этику ИИ можно рассматривать как форму активности ИИ.

Возможно, вы не думали об этике ИИ в этом свете. Тем не менее, если вы тщательно обдумаете это обстоятельство, вы сможете понять, почему этику ИИ можно назвать одним из видов активности ИИ. Идея состоит в том, что принципы этики ИИ стремятся направлять или направлять то, как ИИ должен быть разработан и развернут в обществе. В целом, этика ИИ стремится к тому, чтобы ИИ создавался и использовался должным образом и разумно.

Находится ли сущность этики ИИ в большей степени на стороне защиты ИИ или на стороне оппозиции ИИ?

Это трудно взвесить.

Активист ИИ, выступающий за ИИ, может сказать вам, что этика ИИ тормозит развитие ИИ. Эти проклятые принципы этики ИИ тормозят развитие ИИ. Интересным моментом является то, что противник ИИ также может быть недоволен принципами этики ИИ. По их мнению, этика ИИ говорит, что совершенно нормально продолжать настаивать на внедрении ИИ в мир, делая это в манере подмигивания, подразумевающей, что все, что вам нужно сделать, это следовать этим предписаниям, и все готово.

Между тем, и сделайте глубокий вдох для этого, вы можете найти сторонников ИИ, которые с готовностью принимают этику ИИ и рекламируют использование предписаний этики ИИ до крыш. Они подчеркивают, что, соблюдая принципы этики ИИ, вы можете избежать недостатков, о которых говорят эти ярые противники ИИ. Есть противники ИИ, которые с радостью подписываются на этику ИИ в надежде, что предписания предотвратят или, по крайней мере, препятствуют уродливым сторонам ИИ, которые, как они опасаются, в противном случае будут широко раскрыты.

Заставит вашу голову начать звонить.

В связи с этим я хотел бы сказать кое-что о навешивании ярлыков на активистов ИИ. Время от времени предпринимались попытки обозначить ту или иную сторону как левую или правую. Таким образом, утверждается, что есть левые активисты ИИ и есть правые активисты ИИ. Это создает путаницу.

Вы должны спросить, какая группа выступает за ИИ, а какая выступает против ИИ? К сожалению, левых иногда причисляли к сторонникам ИИ, а также к противникам ИИ. Столь же запутанно и то, что правых иногда причисляли к сторонникам ИИ и к противникам ИИ. Какой какой? Кажется, что использование прозвищ левых и правых не особенно продуктивно и полезно в этих вопросах. Я голосую за то, чтобы мы исключили такие бескрылые абстракции и вводящие в заблуждение ярлыки из области активизма ИИ.

Переключая передачи, есть точка зрения на активность ИИ, которая заслуживает отдельного и пристального внимания. Я имею в виду разделение активности ИИ на активистов ИИ внутри «сообщества ИИ» и тех, кто не входит в сообщество ИИ. Я в некоторой степени согласен с этим, но нерешительно, потому что мы можем увязнуть в определении «сообщества ИИ» и не найти разумных средств, чтобы выбраться из этой пропасти определений.

Одно из таких определений, предложенное в этом исследовательском документе, гласит: «Сообщество ИИ» включает в себя исследователей, инженеров-исследователей, преподавателей, аспирантов, работников НПО, активистов и некоторых технических работников в целом — тех, кто называет себя работающими «на ', 'с' и 'в' ИИ, а также тех, кто анализирует или проводит кампании по воздействию ИИ» (Гайдн Белфилд, Кембриджский университет, «Активизм сообщества ИИ», конференция AIES).

Потенциально мы можем попытаться охарактеризовать активность ИИ, демонстрируемую сообществом ИИ в целом: «Эта активность до сих пор имела некоторые заметные последствия: информирование международных переговоров, изменение корпоративной стратегии и стимулирование роста областей исследований. Такая активность может определять способ и степень милитаризации ИИ, а также то, как компании, занимающиеся ИИ, решают проблемы этики и безопасности. Сообщество ИИ — важный автономный участник с особым набором точек зрения и интересов. Это необходимо учитывать в стратегическом или академическом анализе и обсуждать с другими участниками. Активность сообщества ИИ может существенно повлиять на разработку и внедрение этого важного набора технологий — и, следовательно, на нашу глобальную экономику, общество и политику» (в той же статье Белфилда).

Движется ли сообщество ИИ как единое целое и мыслит ли как сплоченное виртуальное тело, когда дело доходит до активности ИИ?

Вам будет трудно дать однозначное «да» на этот вопрос. Вы можете найти стенд AI адвокаты в сообществе ИИ. Вы можете найти стенд AI оппонентами в сообществе ИИ. По обе стороны баррикад сидят многочисленные активисты ИИ, как мягкие, так и экстремистские.

Конечно, вы, естественно, можете предположить, что активисты ИИ из сообщества ИИ будут склоняться в пользу ИИ, поскольку сфера ИИ, по-видимому, является их хлебом с маслом. Если их карьера и средства к существованию формируются вокруг существования и постоянного развития ИИ, естественно предположить, что они с большей вероятностью будут на стороне защиты ИИ, чем на стороне оппозиции ИИ.

Противоположное мнение состоит в том, что многие в ИИ сами самокритичны и особенно обеспокоены тем, чем ИИ может стать или стать. Вы можете сравнить это с производителем почти любого нового продукта. Они хотят быть уверены, что их ребенок, так сказать, будет правильно воспитан и использован. Поэтому они с такой же вероятностью будут в некотором смысле противниками ИИ, как и сторонниками ИИ. Это возвращает нас к предыдущему пункту о том, что попытка использовать жесткую и непреклонную дихотомию может быть трудной или вводящей в заблуждение.

Нам определенно нужно больше исследований о том, как членство внутри сообщества ИИ по сравнению с тем, кто находится вне сообщества ИИ, может повлиять на перспективы ИИ, включая тенденцию к защите ИИ или склонность к оппозиции ИИ. Возможно, есть обобщающие выводы, к которым можно справедливо прийти (а может и нет).

Чтобы уточнить, давайте предоставим это указание на потенциальные группировки:

  • сообщество ИИ
  • Те, кто не входит в сообщество ИИ

Затем мы применяем нашу более раннюю стратификацию:

  • Сообщество ИИ, состоящее из сторонников ИИ
  • Сообщество ИИ, состоящее из противников ИИ
  • Вне сообщества ИИ, в которое входят сторонники ИИ
  • Вне сообщества ИИ, в котором есть противники ИИ

Полноценная версия заключается в том, что мы добавим мягкую и экстремальную ориентацию:

  • Сообщество ИИ, состоящее из сторонников ИИ мягкого характера
  • Сообщество ИИ, состоящее из сторонников ИИ экстремального характера.
  • Сообщество ИИ, состоящее из противников ИИ мягкого характера
  • Сообщество ИИ, состоящее из противников ИИ экстремального характера
  • Вне сообщества ИИ, в котором есть сторонники ИИ мягкого характера.
  • Вне сообщества ИИ, в которое входят сторонники ИИ экстремального характера.
  • Вне сообщества ИИ, в котором есть противники ИИ мягкого характера.
  • Вне сообщества ИИ, в котором есть противники ИИ экстремального характера.

Мы нагромождали дихотомии на дихотомии.

Могу поспорить, что на данном этапе этой серьезной дискуссии вам нужны наглядные примеры, которые могли бы продемонстрировать эту тему. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей что-нибудь об активности ИИ, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Беспилотные автомобили и активность ИИ

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я надеюсь, что это дает достаточное количество предостережений, чтобы обосновать то, что я собираюсь рассказать.

Есть усилия по активизации ИИ, которые были и продолжают предприниматься в отношении автономных транспортных средств и особенно автомобилей с автоматическим управлением на основе ИИ.

Сторонники ИИ в этом контексте, вероятно, будут утверждать, что беспилотные автомобили обеспечат мобильность для всех, позволив тем, кто сегодня имеет ограниченный доступ к вариантам мобильности, вместо этого легко получить мобильность с помощью беспилотных автомобилей. Цель также состоит в том, чтобы у нас было намного меньше автомобильных аварий и, соответственно, меньше автомобильных травм и смертельных случаев. С сегодняшними автомобилями, управляемыми людьми, в Соединенных Штатах ежегодно происходит около 40,000 2.5 смертей в результате автомобильных аварий и около XNUMX миллионов травм, см. мою коллекцию таких статистических данных на ссылка здесь.

Противники ИИ в отношении беспилотных автомобилей склонны утверждать, что мы сталкиваемся с огромными потерями рабочих мест из-за беспилотных автомобилей. Миллионы рабочих, которые зарабатывают на жизнь автомобилями или грузовиками, будут заменены системами вождения с искусственным интеллектом. Это может быть ошеломляющим для их средств к существованию. Еще одна серьезная проблема связана с безопасностью. Хотя подразумевается, что самоуправляемые автомобили будут водить безопасно, вопрос в том, могут ли они быть небезопасными, и мы позволяем себе отдаться на милость загадочных и неразборчивых систем управления ИИ. О том, как я освещаю причины, лежащие в основе оппозиции беспилотным автомобилям, см. ссылка здесь.

Мы можем повторно использовать наш предыдущий набор классификаций и поместить их в контекст беспилотных автомобилей:

  • Нейтрально относится к ИИ (не активист ИИ) и колеблется в отношении беспилотных автомобилей.
  • Мягкий ИИ-адвокат в пользу беспилотных автомобилей
  • Экстремальный сторонник искусственного интеллекта в пользу беспилотных автомобилей
  • Мягкий противник искусственного интеллекта против беспилотных автомобилей
  • Экстремальный ИИ-оппонент против беспилотных автомобилей
  • Другие контрактные услуги

Мы также можем добавить к этому набору дополнительную информацию о том, что вы являетесь частью сообщества ИИ, а не вне его.

Не вдаваясь в подробности, может показаться, что в общем и целом люди, не входящие в сообщество ИИ, как правило, колеблются в отношении самоуправляемых автомобилей на основе ИИ (я говорю это неформально, выступая с публичными выступлениями и получая отзывы общественности в своих колонках). , плюс я изучил результаты опросов, проведенных различными агентствами по изучению общественного мнения, и сообщил о выводах). Публика, как правило, находится в выжидательном режиме. Есть некоторое рвение и волнение, которое уравновешивается неуверенностью в этом вопросе и желанием увидеть доказательство пудинга, так сказать.

Чтобы было ясно, не все, кроме сообщества ИИ, видят этот вопрос с такой точки зрения. Есть известные внешние активисты ИИ, которые выступают за беспилотные автомобили, а также те, кто решительно выступает против. Они, как правило, очень вокальны. Между тем, большинство населения кажется относительно спокойным и, как уже упоминалось, занимает выжидательную позицию.

Возможно, вы помните несколько примеров крайней активности ИИ, направленной против самоуправляемых автомобилей, которые имели место несколько лет назад и о которых я сообщал в своих колонках в то время. В некоторых местах люди бросали камни в проезжающие беспилотные автомобили. Они пытались заблокировать движение беспилотных автомобилей, ставя свои автомобили, управляемые людьми, на пути или приближаясь к беспилотным автомобилям, чтобы продемонстрировать опасность беспилотных автомобилей. Многие из этих тактик были незаконными и представляли опасность для всех заинтересованных сторон.

Во всем этом играют большие ставки.

По оценкам, сфера беспилотных автомобилей в конечном итоге станет индустрией на триллион долларов, см. мой анализ на ссылка здесь. Некоторые противники ИИ будут настаивать на том, что мы являемся свидетелями того, как деньги решают нашу судьбу. Мы должны позволять беспилотным автомобилям на основе искусственного интеллекта ездить только по специальным закрытым трассам или использовать компьютерное моделирование, чтобы опробовать их. Утверждение состоит в том, что мы преждевременно разрешаем неиспытанным и не готовым к тому, чтобы беспилотные автомобили в прайм-тайм выезжали на наши дороги общего пользования.

Заключение

Активность ИИ возникает во всех областях ИИ.

Я подчеркнул здесь, что активность ИИ лежит в основе внедрения беспилотных автомобилей и автономных транспортных средств. Активность ИИ в изобилии присутствует и в других частях общества. Существует ИИ в области здравоохранения и медицины. ИИ в финансовой сфере. ИИ в розничной торговле и дистрибуции. ИИ постепенно становится всепроникающим.

Некоторые говорят, что противники ИИ пытаются повернуть время вспять. Они хотят вернуться во времена лошадей и повозок. Они луддиты в современную эпоху.

Некоторые говорят, что сторонники ИИ ведут нас по тропе первоцветов. В конечном итоге мы собираемся построить Франкенштейна, который будет представлять собой экзистенциальную угрозу. Все человечество будет либо порабощено, либо мы будем без промедления уничтожены ИИ.

Кто ты из активистов ИИ?

Одна вещь, которая кажется почти несомненной, это то, что те, кто нейтрален и не считает себя участником игры активизма ИИ, неумолимо будут втянуты в гамбит социального действия ИИ, нравится им это или нет. ИИ уже здесь и растет. Никто не сможет спрятать голову в песок, и всем придется встать на защиту ИИ, поэтому единственный вопрос заключается в том, на чью сторону или лагерь вы собираетесь приземлиться.

ИИ привлекает внимание, слегка или очень сильно, и все мы заинтересованы в том, куда движется ИИ.

Источник: https://www.forbes.com/sites/lanceeliot/2022/06/04/ai-ethics-and-the-perplexing-societal-and-legal-role-of-ai-activism-included-in- случай-автономных-беспилотных-автомобилей/