Раздвигая границы этики ИИ в перевернутый мир радикального этического ИИ, потенциально проиллюстрированного примером использования хваленых беспилотных автомобилей на основе ИИ

Неужели преобладающий тезис и внимание к сегодняшнему широко развивающемуся подобию этики ИИ зашли в настоящую колею?

Некоторые, кажется, решительно так думают.

Распаковываем это.

Вы, возможно, знаете, что интерес к этическим аспектам ИИ растет. Это часто упоминается либо как этика ИИ, либо как этический ИИ, и здесь мы будем рассматривать эти два прозвища как преимущественно эквивалентные и взаимозаменяемые (я полагаю, что некоторые могут поспорить с этим предположением, но я хотел бы предложить, чтобы мы не отвлекались на потенциальные различия, если таковые имеются, для целей настоящего обсуждения).

Отчасти причина, по которой этические и моральные соображения в отношении ИИ возросли, связана с постепенно растущим потоком так называемых AI для плохих. Видите ли, изначально последняя волна ИИ воспринималась в основном как предлагающая AI для хорошего. Это была идея о том, что ИИ может помочь в решении многих других неразрешимых проблем, на решение которых компьютеры до сих пор не могли рассчитывать. Возможно, мы, наконец, обнаружим, что используем ИИ для решения многих самых сложных мировых проблем.

В этом несколько мечтательном путешествии пришло осознание того, что есть и другая сторона медали. Это AI для плохих. Например, вы могли знать о шумихе вокруг распознавания лиц на основе ИИ, которое иногда воплощало расовые и гендерные предубеждения (см. мой анализ по этой ссылке здесь). Нехорошо. В настоящее время существует множество четких примеров систем ИИ, которые имеют множество неблагоприятных неравенств, встроенных в их функциональность алгоритмического принятия решений (ADM).

Некоторые суровые проблемы, связанные с ИИ, являются этически пограничными, в то время как другие проблемы в значительной степени выходят за любые разумные этические границы. Вдобавок ко всему, вы также можете рассчитывать на то, что ИИ может якобы действовать незаконно или откровенно незаконным исполнителем без ограничений. Двухэтапный удар по закону и этическим нормам направлен на замедление AI для плохих и стремиться предотвратить продолжающееся наступление ИИ, которое по умолчанию может быть полностью пронизано вопиюще аморальными и незаконными элементами.

Я широко освещал тему этики ИИ в своих колонках, например, по этой ссылке, а также по этой ссылке здесь, и это лишь некоторые из них. Один относительно распространенный набор этических факторов ИИ состоит в том, чтобы обратить внимание на следующие характеристики ИИ:

  • Справедливость
  • Прозрачность
  • Объяснимость
  • Политика
  • кредитоспособность
  • чувство собственного достоинства
  • благодеяние
  • И т.д.

Это часто упоминаемые социальные конструкции, над которыми нам следует задуматься, когда дело доходит до создания и использования современного ИИ. Скорее всего, если вы случайно посмотрите статью или сообщение в блоге, посвященное этике ИИ, вы обнаружите, что тема статьи сосредоточена на одном из вышеупомянутых факторов или характеристик.

Я считаю, что в целом те, кто открыто призывает к этичному ИИ, согласятся, что эти факторы заслуживают внимания. Действительно, реальная проблема, похоже, заключается в том, что те, кто создает ИИ, и те, кто пропагандирует ИИ, похоже, не понимают смысла. Это подтолкнуло тех, кто участвует в движении за этику ИИ, к дальнейшему разъяснению того, почему эти характеристики так чертовски важны. К сожалению, многие разработчики ИИ и фирмы, использующие ИИ, либо считают, что это приятно иметь, следовательно, просто необязательным, либо считают этический ИИ скорее абстрактным академическим упражнением, чем чем-то повседневным практическим.

Согласно моим предсказаниям, многие из тех, кто держит голову в песке в отношении этического ИИ, однажды проснутся и грубо обнаружат, что они находятся под резким прикрытием общества, а также закона. Люди будут очень расстроены, обнаружив, что вездесущий ИИ, внедренный во всевозможные товары и услуги, приправлен присущими ему предубеждениями и несправедливостью. Законодатели уже продвигают новые законы, чтобы попытаться гарантировать, что те, кто продвигает такой ИИ, будут подпадать под юридически недвусмысленные правила, что значительно усложняет для разработчиков ИИ и тех, кто использует ИИ, игнорировать любые неблагоприятные гражданские и судебные уголовные возможности. от своих усилий.

Не показывая легкомыслия, колеса правосудия будут неумолимо приближаться к тем, кто излучает и поощряет неблагоприятный ИИ.

Чтобы уточнить, AI для плохих не обязательно приписывается исключительно злодейским актерам. Оказывается, большинство разработчиков ИИ и тех, кто обслуживает ИИ для всего мира, часто не подозревают о том, что у них в руках. Громкая тревога по поводу этики ИИ, по-видимому, еще не достигла их ушей. Вы можете сочувствовать тем, кто пребывает в блаженном неведении, хотя это и не освобождает их от ответственности и конечного долга заботы.

Я хотел бы кратко упомянуть, что вы не должны попасться в коварную ментальную ловушку, что вина за неблаговидный ИИ лежит на самом ИИ. Это почти смехотворно, хотя он продолжает использоваться как спасательный люк и время от времени невероятно работает на тех, кто не знаком с современным ИИ. Видите ли, сегодняшний ИИ не имеет разума. Даже не близко. Мы не знаем, возможен ли разум ИИ. Мы не знаем, когда появится разумный ИИ.

Суть в том, что игра с обвинением ИИ в том, что она отвлекает всех, указывая пальцем на ИИ как на ответственную сторону, является неискренним, если не совсем жалким обманом, см. мой опрос об этом по ссылке здесь. Существующий ИИ запрограммирован людьми-разработчиками. Существующий ИИ выпускается и становится доступным для людей. Компании, которые создают ИИ, и компании, которые лицензируют или покупают ИИ для целей использования ИИ в своих товарах и услугах, полностью основаны на человечестве. Ответственность несут люди, а не ИИ (возможно, в будущем у нас будет ИИ другого, более продвинутого вида, и в то время нам нужно будет более внимательно разобраться с тем, кто виноват).

Подводя итог, мы должны быть благодарны за то, что вокализаторы этического ИИ настойчиво пытаются донести до общества этические последствия ИИ. Прямо сейчас это почти сродни акту Сизифа, когда он катит валун вверх по крутому склону. Многие, кто должен слушать, не делают этого. Те, кто слушает, не всегда побуждаются к корректирующим действиям. Точно так же, как перед Сизифом стояла незавидная задача толкать этот валун на вершину холма вечность, вы можете в значительной степени предположить, что какофония этики ИИ неизбежно должна стать вечным шумом.

Похоже, что вопрос об этике ИИ улажен, и мы, по-видимому, можем перейти к другой теме.

Но, подождите, это еще не все.

Вы можете быть удивлены или даже шокированы, узнав, что некоторые утверждают, что существующий свод этических соображений ИИ является небрежным. Главный краеугольный камень этики ИИ увяз в тупике группового мышления, громко увещевают они.

Вот сделка.

Мой ранее указанный список этических факторов ИИ, как говорят, стал удушающей заботой команд этического ИИ. Все бездумно принимают эти факторы и снова и снова продолжают обрушивать на них одни и те же факторы. Подобно эхо-камере, большинство специалистов по этике ИИ повторяют про себя одну и ту же песню, наслаждаясь ее звучанием. Немногие готовы вырваться из стаи. Стадный менталитет взял верх над Этическим ИИ (так утверждается).

Как возникла эта загадка? По-видимому, вы можете объяснить это нежелательное внедрение этического ИИ случайностью или замыслом.

В случайном сценарии чрезвычайно легко сосредоточиться на ключевых факторах. Вам не нужно выходить за рамки, так сказать. Кроме того, те, кто принадлежит к лагерю этического ИИ, скорее всего, больше заинтересованы в подобной работе или идеях, чем в поиске идей, выходящих за рамки нормы. Рыбак рыбака видит издалека. Говорят, что дюйм за дюймом арена этики ИИ сжалась в тесный кластер и, как правило, в порядке с привычностью и комфортом, которые она обеспечивает.

Я уверен, что это вызовет гнев многих участников AI Ethics (имейте в виду, что я просто упоминаю то, что оспаривают другие, а не подтверждаю эти утверждения).

Если вы хотите разжечь гнев, рассмотрите предположение, что это явление возникло намеренно. В несколько возможной области теории заговора говорится, что технологи ИИ и технологические компании либо прямо, либо подсознательно способствуют сужению этических соображений ИИ.

Зачем им это нужно?

Мы обдумаем две возможности.

Одно из представлений состоит в том, что технологи ИИ отдают предпочтение существующему набору этических соображений ИИ, поскольку эти конкретные факторы в некоторой степени поддаются исправлению с помощью технологий. Например, если вам нужна объяснимость, технологи и исследователи ИИ работают день и ночь над созданием объяснимых возможностей ИИ (XAI). Таким образом, красота преобладающего списка этических факторов ИИ заключается в том, что они вписываются в сферу разрешений технологии ИИ. Те, кто придерживается этой теории, склонны предположить, что любые другие факторы, которые не могут быть легко решены с помощью ИИ, не могут получить поддержку в списке факторов.

Тогда у вас есть другой, более гнусный вариант. Предполагается, что есть высокотехнологичные компании и другие, которые хотят, по сути, на словах обслуживать вопросы этики ИИ. В этом смысле они наслаждаются более коротким списком технологически решаемых проблем. Любая попытка добавить другие проблемы усложнит жизнь этим технологическим компаниям. Они хотят свести к минимуму инвестиции, необходимые для удовлетворения заявлений об этичном ИИ.

Я полагаю, что такого рода намек должен спровоцировать кулачные бои и выйти далеко за рамки простого гнева. Те, кто неустанно пытается соблюдать этический ИИ и вносить в него свой вклад, потенциально могут быть очернены этими утверждениями, и вы легко можете себе представить, почему они были бы возмущены кажущимися беззастенчивыми и совершенно наглыми обвинениями.

Давайте не будем начинать драку, а вместо этого возьмем трезвый и обдуманный момент, чтобы увидеть, что еще якобы упускает лагерь этического ИИ. Другой лагерь, который умоляет расширить и расширить точку зрения современного этического ИИ, иногда упоминается как Радикальный этический ИИ.

Вы можете задаться вопросом, подходит ли прозвище «Радикальный этический ИИ» или нежелательно.

Коннотация чего-то «радикального» может быть как хорошей, так и плохой. Одна из интерпретаций радикального этического ИИ состоит в том, что это попытка изменить статус-кво этики ИИ. Использование «радикальной» витрины показывает, что нам нужно сделать согласованный драматический поворот, а не просто слегка подкорректировать или слабо отрисовать капельку вертлюга. Вы можете возразить, что использование «радикального» приведет к шоку в существующих подходах, подобно использованию дефибриллятора, который в противном случае с помощью обычного соглашения не был бы достигнут.

Другие скажут, что, добавляя слово «радикальный», вы создаете настоящий беспорядок. Некоторые интерпретировали бы радикализм как что-то диковинное, скатываясь к эксцентричности или чудаковатости. Центристы могли бы сразу же отвергнуть само представление о том, существует ли групповое мышление из-за одного только наименования как оскорбительного изобретения. Смягчите риторику, сказали бы некоторые, и вы могли бы получить более серьезное внимание и интерес.

Несмотря на проблему с именами, вам может быть врожденно любопытно, что это за другой лагерь считает, что остальные из нас пропали без вести. Отложите в сторону любую внутреннюю реакцию на то, что называется «что-то вроде».

Вы могли бы внешне спросить, где говядина?

Я попытаюсь представить некоторые из упомянутых недостающих ингредиентов.

Во-первых, одна заявленная оплошность заключается в том, что преобладающее мнение о традиционном (старомодном?) Этическом ИИ представляет собой сдерживающее скрытое предположение о неизбежности ИИ. Таким образом, вместо того, чтобы исследовать, должен ли ИИ быть даже в картах для конкретных видов использования и социальных обстоятельств, преобладающая позиция состоит в том, что ИИ грядет, и нам нужно привести его в наилучшую возможную форму. Вы могли бы ехидно сказать, что это похоже на накрашивание губной помады свиньи (то есть, это все еще свинья, независимо от того, что вы делаете, чтобы она выглядела лучше).

Если вы доведете это до крайности, сомнения по поводу справедливости, конфиденциальности и всего остального, возможно, будут подобны передвижению стульев на палубе Титаника. Этот корабль все равно пойдет ко дну, а это означает, что мы предполагаем, что ИИ появится, несмотря ни на что. Но, возможно, нам следует пересмотреть вопрос о том, является ли затопление единственным возможным вариантом.

Я вернусь к этому соображению через мгновение.

Вот некоторые другие заявленные вопросы этики ИИ, которым либо не уделяется должное внимание, либо они вытесняются из-за обилия внимания к другим преобладающим темам:

  • Помимо использования ИИ для управления людьми, например, все более широкое использование ИИ для принятия решений о найме и увольнении в компаниях, также возникают сомнения в отношении использования ИИ для управления животными. В настоящее время предпринимаются усилия по использованию ИИ на фермах, в зоопарках и вообще в любых местах, где обычно содержатся животные. Как ИИ повлияет на благополучие животных?
  • Бывают времена, когда ИИ, по-видимому, проходит бета-тестирование в особо уязвимых сообществах, делая это в качестве первой попытки, а затем ИИ будет распространяться более широко. Пристальное этическое внимание ИИ должно быть направлено на эти методы.
  • По-видимому, ведется много дискуссий о замене работников ИИ, хотя меньше внимания уделяется влиянию ИИ как инструмента мониторинга, используемого для надзора за низкооплачиваемыми работниками с низким статусом.
  • Кажется, недостаточно внимания уделяется экологическим и экологическим последствиям создания и поддержания систем ИИ в рабочем состоянии (помимо прочего, вам может быть интересна моя дискуссия об углеродном следе, связанном с ИИ, см. ссылку здесь).

· И так далее.

Некоторые специалисты по этичному ИИ, вероятно, сразу же отметят, что на самом деле это темы, которые можно найти в литературе и дискуссиях об этике ИИ. Они не являются чем-то неслыханным, и при этом они не являются потрясающе новыми.

Я полагаю, что точка зрения сторонников радикального этического ИИ заключается в том, что они не заявляют, что открыли совершенно неизведанную почву. Вместо этого они утверждают, что существующий фокус этического ИИ заключается в том, чтобы задушить пригодный для дыхания воздух, позволяя другим «выдающимся» темам получить должное.

Возможно, более приемлемая формулировка состоит в том, что преобладающее внимание этики ИИ уделяло меньше внимания другим жизненно важным темам. Вы могли бы предположить, что есть белые пятна, и было бы удобно рассмотреть, можно ли их углубить (это также обсуждается в Журнал ИИ и этики в недавней статье под названием «Слепые пятна в этике ИИ» Тило Хагендорфа).

Теперь, когда мы рассмотрели сагу о том, находится ли этический ИИ в некотором роде колеи, что некоторые сочли бы нелепым утверждением, а между тем другие настаивали бы на том, что колея реальна и становится все хуже, возможно, мы можем воспользоваться моментом, чтобы исследовать вариант использования, чтобы поближе взглянуть на этот вопрос.

В моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилемму согласования, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Представляет ли появление настоящих беспилотных автомобилей на основе ИИ какие-либо нестандартные этические соображения ИИ, которые обычно не оспариваются или недостаточно освещаются?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Для моего обширного и постоянного освещения автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылку здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили считаются Уровнем 4 и Уровнем 5 (см. Мое объяснение по этой ссылке здесь), в то время как автомобиль, которому требуется, чтобы водитель-человек участвовал в совместных усилиях, обычно считается Уровнем 2 или Уровнем 3. Автомобили, которые совместно управляют автомобилем. Совместное использование задач вождения описываются как полуавтономные и обычно содержат множество автоматизированных надстроек, которые называются ADAS (Advanced Driver-Assistance Systems).

На 5-м уровне еще нет настоящей машины для самостоятельного вождения, о которой мы еще даже не знаем, удастся ли этого достичь, и сколько времени потребуется, чтобы туда добраться.

Между тем, усилия уровня 4 постепенно пытаются получить некоторую поддержку, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики жизни и смерти в эксперименте. происходит на наших шоссе и переулках, некоторые утверждают, что см. мои репортажи по этой ссылке здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Самоуправляемые автомобили и выбросы или изгои этических соображений ИИ

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я верю, что это дает достаточный перечень предостережений, чтобы обосновать то, что я собираюсь рассказать.

Теперь мы готовы глубоко погрузиться в самоуправляемые автомобили и выяснить, не получают ли должные должное внимание какие-либо нестандартные радикальные этические соображения ИИ.

Из-за нехватки места давайте сосредоточимся на одном конкретном вопросе, который мы затем сможем изучить. В частности, существует общее обвинение в том, что преобладающая этика ИИ якобы содержит скрытое предположение о неизбежности ИИ.

Если мы применим это краеугольное предположение к беспилотным автомобилям на основе ИИ, это означает, что сообщество этического ИИ в целом предполагает, что беспилотные автомобили неизбежно будут разработаны и введены в эксплуатацию. Они принимают за чистую монету то, что самоуправляемые автомобили появятся, в то время как встречное требование состоит в том, что они должны не делать это скрытое предположение и вместо этого размышлять о том, что, возможно, нам не следует иметь самоуправляемые автомобили с искусственным интеллектом (или какой-то вариант, например, иметь их только в особых обстоятельствах, а не повсеместно).

Отличный вопрос.

Чтобы уточнить и еще раз сформулировать, утверждение, что преобладающие этические соображения ИИ в отношении беспилотных автомобилей с ИИ, не соответствуют действительности, поскольку, по-видимому, предполагается, что автомобили с автоматическим управлением ИИ неизбежны. При таком способе мышления ожидание будет проявляться двояко:

1. Было бы мало, если бы существовало какое-либо исследование того, должны ли мы вообще иметь ИИ-автомобили, или было бы отодвинуто в сторону, или у нас не было бы глотка воздуха, чтобы привлечь хоть какое-то сияющее внимание, и

2. Вместо этого, вероятно, внимание к беспилотным автомобилям с искусственным интеллектом будет сосредоточено на деталях, связанных с этическими последствиями искусственного интеллекта в традиционном списке факторов, таких как объяснимость, справедливость, конфиденциальность и т. д., и все это будет делаться под общим видом или молчанием. предположение, что у нас определенно будут эти хваленые автономные транспортные средства (без широкого выбора других вариантов).

Интересное предложение.

Даже беглый осмотр общего внимания к таким вопросам, касающимся беспилотных автомобилей с ИИ, покажет, что существует предположение, что беспилотные автомобили с искусственным интеллектом в некоторой степени неизбежны, хотя давайте убедимся, что огромное предостережение и предупреждающий индикатор с двойной звездочкой вместе с этим громким заявлением.

Вот почему.

Мы пока не знаем, будут ли полностью возможны настоящие самоуправляемые автомобили на основе искусственного интеллекта.

Несомненно, в настоящее время проводятся тщательно разработанные испытания на дорогах общего пользования. Они абсолютно не на уровне 5. Никто не может разумно утверждать обратное по этому неоспоримому пункту. Вы можете сказать, что некоторые из надлежащих испытаний как бы сворачивают на уровень 4, но шаткие и с относительно хрупкими ODD (ODD или домены проектирования операций — это условия, в которых производитель беспилотных автомобилей заявляет, что их автономное транспортное средство может безопасно работать. , см. мое обсуждение по этой ссылке здесь).

При этом арена беспилотных автомобилей продвинулась намного дальше, чем всего несколько лет назад. Есть разумная причина для оптимизма по поводу того, что произойдет дальше. Самым большим камнем преткновения является график того, когда это произойдет. Предыдущие предсказания ученых мужей с готовностью приходят и уходят. Можно ожидать, что существующие прогнозы наверняка постигнет та же участь.

Короче говоря, казалось бы, вы могли бы неофициально сказать, что есть достаточно оснований для предположения, что настоящие автомобили с искусственным интеллектом в конечном итоге появятся. Казалось бы, мы движемся к Уровню 4 среди очень ограниченных ODD. Следующее логическое расширение, по-видимому, предполагает наличие большего количества ODD, более разнообразного и глубокого. В какой-то момент, когда мы завоевали достаточно перекрывающихся и несколько исчерпывающих сфер ODD, это, казалось бы, достигло кульминации в осторожном переходе на уровень 5. Это, по крайней мере, пошаговая философия ожидаемого прогресса (которую не все принимают).

Я упоминаю эти, казалось бы, сложные искажения, потому что существует много путаницы в отношении того, что значит провозглашать существование настоящих беспилотных автомобилей на основе ИИ или что мы достигли великого момента их существования. Каково ваше определение настоящих беспилотных автомобилей на основе искусственного интеллекта? Если вы говорите, что это тот самый момент, когда вы крохотно перешли на четвертый уровень, что ж, полагаю, вы можете начать открывать эти бутылки шампанского. Если вы скажете, что это произойдет, как только мы завернем за угол на уровне 4, вам придется убрать эти бутылки из-под шампанского на хранение. Если вы говорите, что это произойдет, когда мы освоим уровень 4, эти бутылки отправятся в заднюю часть полок для хранения, и вы должны ожидать, что они запылятся.

В общем, если общество на самом деле делает предположение, что беспилотные автомобили с искусственным интеллектом неизбежны, можно разумно утверждать, что это откровенное предположение. Не все согласятся с этим утверждением, так что для тех из вас, кто расстроен предполагаемой возможностью, обратите внимание на ваше яростное несогласие.

Не попадем ли мы в беду или в отчаянное положение, если будем соглашаться с этим предположением о неизбежности появления беспилотных автомобилей с искусственным интеллектом?

Есть интригующие повороты, которые эта загадка выносит на поверхность.

Например, одна уже часто обсуждаемая проблема заключается в том, что у нас могут быть беспилотные автомобили на основе ИИ, которые доступны исключительно в одних областях, но не в других. Области, в которых будут автомобили с самостоятельным вождением, являются «имеющими», в то время как области, в которых их нет, являются «неимеющими», которые по существу лишены возможности использовать преимущества беспилотных автомобилей.

Это провозглашенный элитарный или ясправедливость феноменологическое беспокойство, которое выражали многие. Действительно, я рассказывал об этом много раз, например, по этой ссылке здесь и в этом более крупном анализе по ссылке здесь.

Идея состоит в том, что автомобили с искусственным интеллектом, скорее всего, будут эксплуатироваться в автопарках. Операторы автопарка будут выбирать, где разместить свои беспилотные автомобили. Предполагаемое место заработка на использовании беспилотных автомобилей находится в более богатых частях города. У тех, кто живет в бедных или обедневших частях города, не будет свободного доступа к беспилотным автомобилям.

Та же логика экстраполируется, чтобы утверждать, что страны также окажутся в том же затруднительном положении. Более богатые страны испытают использование беспилотных автомобилей, а более бедные страны — нет. Имеющие будут иметь больше доступа и использования автономных транспортных средств, а неимущие — нет.

Вам может быть интересно, что получают имеющие, а не получают неимущие. Частый признак того, что ожидается, что у беспилотных автомобилей с ИИ будет намного меньше автомобильных аварий и автомобильных столкновений. Считается, что количество последующих человеческих травм и смертельных случаев в результате автомобильных аварий резко сократится. Таким образом, более богатые части города или более богатые страны смогут сократить количество травм и смертельных случаев, связанных с автомобилями, в то время как регионы, управляемые людьми, у которых нет возможности или замены с помощью самообслуживания на основе ИИ. -вождение автомобилей не увидит такого соразмерного снижения.

Пожалуйста, имейте в виду, что есть и другие разрекламированные преимущества беспилотных автомобилей с искусственным интеллектом, которые аналогичным образом будут накапливаться в богатых и не использоваться в неимущих (подробнее см. по этой ссылке здесь).

Суть здесь в том, что вы можете растянуть «неизбежны ли беспилотные автомобили», указав, что этический ИИ уже заламывает руки о том, что беспилотные автомобили доступны только выборочно. Я знаю, это может показаться кренделем логики. Это говорит о том, что мы уже заметно обеспокоены тем, что ИИ недоступен в некоторых социальных сегментах. С этой точки зрения, это воплощение ИИ не является неизбежным в отношении этих контекстов как таковых (если вы понимаете дрейф).

Заключение

Вы, несомненно, знакомы с остроумно придуманным мудрым советом, что то, чего вы не знаете, может навредить вам, а то, чего вы не знаете, что вы не знаете, может действительно стереть вас с лица земли.

Одна из точек зрения на радикальную этическую позицию ИИ заключается в том, что, несмотря на любые опасения, связанные с именами, мы должны, по крайней мере, услышать то, что, как считается, мы упускаем. Может быть, имеет место групповое мышление, и так называемый традиционный этический ИИ или старомодная этика ИИ ухитрились застояться и застрять на конкретных соображениях. Если это так, удар в заднюю часть может помочь снова запустить двигатели и двигаться к расширенному прицелу.

Или, может быть, этический ИИ и этика ИИ преуспевают, большое спасибо, и это ответвление просто пытается быть ложкой дегтя. Недостаток не кажется особенно разрушительным или смущающим. Когда или если что-то каким-то образом выйдет из-под контроля, благочестивая и согласованная переоценка царства может оказаться полезной.

Постоянное совершенствование — похвальное стремление. И вы можете почти бесспорно заявить, что когда дело доходит до появления ИИ, мы не хотим запоздало обнаружить, что мы не знали того, чего мы не знали, и что мы должны были знать, чтобы быть на вершине аспекты, которых мы не знали (или что мы знали о них, но непреднамеренно скрыли).

Это не кажется слишком радикальным, не так ли?

Источник: https://www.forbes.com/sites/lanceeliot/2022/02/20/pushing-the-boundaries-of-ai-ethics-into-the-topsy-turvy-world-of-radical-ethical- ИИ-потенциально-пример-через-случай-использования-хваленых-автомобилей на основе ИИ/