Этический ИИ амбициозно надеется, что ИИ сам научится этичному поведению, как в случае с ИИ в автономных беспилотных автомобилях

Аристотель классно сказал, что воспитание ума без воспитания сердца — это вообще не образование.

Вы могли бы истолковать это проницательное замечание так, чтобы предположить, что изучение этики и морального поведения крайне важно для человечества. В классическом споре о природе и воспитании нужно задаться вопросом, какая часть наших этических нравов является инстинктивно врожденной, а сколько мы усваиваем в течение жизни. Малыши наблюдательны по отношению к другим людям и, по-видимому, подбирают свои этические основы на основе того, что они видят и слышат. То же самое можно сказать и о подростках. Что касается непредубежденных взрослых, они также будут продолжать приспосабливаться и прогрессировать в своем этическом мышлении в результате познания повседневного мира.

Конечно, прямое обучение кого-то этике также является нормой. Люди обязаны узнавать об этических путях, посещая занятия по этой теме или, возможно, посещая интересующие их мероприятия и практики. Этические ценности могут быть четко идентифицированы и разделены как средство помощи другим в формулировании их собственной структуры этики. Кроме того, этика может быть тонко скрыта в рассказах или других методах обучения, которые в конечном итоге несут сообщение о том, из чего состоит этическое поведение.

Вот как люди, кажется, проникаются этикой.

А как насчет искусственного интеллекта (ИИ)?

Я понимаю, что такой вопрос может показаться странным. Мы, безусловно, ожидаем, что люди примут этику и будут идти по жизни с некоторым подобием морального кодекса. Это простой и очевидный факт. С другой стороны, машина или компьютер, похоже, не вписываются в ту же систему отсчета. Ваша внутренняя реакция может заключаться в том, что считать искусственный интеллект воплощением этических и моральных кодексов надумано или нелепо.

Лучшее, что мы, кажется, можем сделать с ИИ, — это разработать его таким образом, чтобы он не отклонялся от этического поведения. Разработчики ИИ и те, кто внедряет ИИ, должны нести ответственность за то, чтобы ИИ в том виде, в котором он был разработан и реализован, уже соответствовал этическим нормам. Так сказать, за воротами ИИ уже должен быть нетронутым и готовым к работе как полностью этически правильное изобретение.

Вы, безусловно, были бы правы, думая, что системы ИИ действительно должны быть созданы так, чтобы они уже полностью соответствовали этической основе. Общество было очень взволновано, когда была впервые выпущена последняя волна систем ИИ, которая, казалось, продемонстрировала, что мы живем в эпоху AI для хорошего. ИИ поможет решить многие из самых сложных мировых проблем. Достижения в области технологий использовались для дополнения человеческих возможностей когнитивными средствами, хотя позвольте мне подчеркнуть, что у нас еще нет разумного ИИ, и мы не знаем, будет ли создан разумный ИИ.

Проблема с бешеной спешкой, чтобы внедрить ИИ в мир, постепенно обнажила уродливую изнанку ИИ, известную как AI для плохих. Было много заголовков о системах ИИ, которые используют алгоритмическое принятие решений (ADM), изобилующее предубеждениями и несправедливостью. Вдобавок ко всему, большая часть современного ИИ страдает от отсутствия прозрачности, имеет тенденцию быть необъяснимой с точки зрения объяснения вычислительных решений, часто демонстрирует отсутствие справедливости и позволяет некоторым отвлекать свою человеческую ответственность, указывая пальцем на ИИ.

Я широко освещал этический ИИ и этику ИИ в своих работах, в том числе ссылка здесь и ссылка здесь, Просто назвать несколько.

Как может быть AI для плохих если мы примем за заявленную конструкцию, что ИИ должен быть создан с самого начала, чтобы избежать неэтичных действий?

Ответ многократный.

Во-первых, многие разработчики ИИ и компании, внедряющие ИИ, сами не подозревают о важности формирования своего ИИ таким образом, чтобы он не выходил за рамки этических норм. Концепция вообще не находится на их радаре. Привлекательность быстрого зарабатывания денег заставляет некоторых продвигать любые дикие идеи искусственного интеллекта, которые они хотят умышленно производить. Не нужно разбираться в каких-то этических вещах. Просто создайте ИИ и запустите его.

Во-вторых, есть те, кто создает ИИ, которые приукрашивают прямое осознание этических последствий, но при этом явно преуменьшают или несколько игнорируют этические соображения ИИ. Одной из распространенных точек зрения является классическая мантра технарей: стремиться к быстрым и частым неудачам. Просто продолжайте повторять, пока, надеюсь, все не уладится должным образом. Шансы на систематическое и продуманное включение этики ИИ в эти стремительные усилия по ИИ, к сожалению, невелики. Я обсуждаю необходимость расширения прав и возможностей руководства в отношении этического ИИ на ссылка здесь.

В-третьих, существует много неясностей в отношении того, какие этические ограничения следует учитывать при разработке ИИ. Конечно, в настоящее время существует множество руководств по этике ИИ, см. мое освещение на ссылка здесь, хотя эти удобные теоретические положения трудно обязательно превратить в особенности для конкретной создаваемой системы ИИ. Я указал, что мы постепенно увидим появление инструментов и методологий создания ИИ, которые включают методы этического кодирования ИИ, помогающие сократить разрыв между абстрактными аспектами и общеизвестными аспектами «резина встречает дорогу».

В-четвертых, согласно сделанному здесь акценту, мы исследуем затронутый случай ИИ, который, даже если изначально составлен в рамках этических границ, впоследствии, при использовании, выходит за рамки предполагаемых этически закодированных параметров.

Нам нужно распаковать это.

Большая часть современного ИИ использует машинное обучение (ML) и глубокое обучение (DL). Это вычислительные методы и технологии сопоставления с образцом. Как правило, идея состоит в том, что вы собираете вместе множество релевантных данных для того, что должен делать ИИ, вы вводите эти данные в выбранный вычислительный сопоставитель шаблонов, и сопоставление шаблонов математически пытается найти полезные шаблоны. Обратите внимание, что со стороны этого ИИ нет никакого разума (которого, опять же, пока не существует). Здесь также нет никакого здравого смысла. Это все математика и расчеты.

Возможно, данные, поступающие в ML/DL, уже пронизаны предубеждениями и несправедливостью. В этом случае велика вероятность, что сопоставление вычислительных шаблонов будет просто имитировать те же склонности. Если вы предоставляете данные, которые отдают предпочтение одной расе над другой или одному полу над другим, существует значительная вероятность того, что сопоставление с образцом зафиксируется на этом как на обнаруженном образце.

Большая проблема с такой фиксацией заключается в том, что нам может быть трудно понять, что шаблоны основаны на этом аспекте данных. Тернистая и сложная математика может сделать обнаружение таких найденных закономерностей весьма проблематичным. Даже тестирование ИИ не обязательно выявит эти тенденции, в зависимости от диапазона и глубины применяемых тестов.

Итак, давайте предположим, что вы построили систему искусственного интеллекта и сделали домашнее задание, сначала попытавшись избежать использования данных, которые уже имели предвзятость. Затем, после того, как машинное обучение и глубокое обучение были проведены, вы проверили результаты, чтобы увидеть, не возникли ли какие-либо предубеждения или неравенства. Давайте предположим, что вы не можете найти никаких таких неблагоприятных наклонностей.

В общем, теперь дан зеленый свет, чтобы начать использовать ИИ. Люди начнут использовать ИИ и, вероятно, посчитают его этически правильным. Разработчики тоже так считают. Так думает компания, разрабатывающая ИИ. Мы все уходим.

Вот что может случиться.

Вероятно, активируется намёк на предвзятость, которого не было в исходных данных и которое не было выявлено при тестировании ИИ. Возможно, это случается редко. Вы можете полагать, что пока это редко, все хорошо. Я сомневаюсь, однако, что те, кто подвержен этому предубеждению, готовы так смотреть на вещи. Осмелюсь сказать, что система ИИ и те, кто ее сформулировал, столкнутся с последствиями либо в суде, либо в открытом суде общественного мнения.

Другой вариант — это общеизвестное понятие «бери дюйм, а хватай милю». Поначалу намек может быть крошечным. Во время использования ИИ ИИ мог быть разработан так, чтобы изменять себя по ходу дела. Такого рода «обучение» или «самообучение» может быть весьма полезным. Вместо того, чтобы требовать от разработчиков искусственного интеллекта постоянного изменения и корректировки системы искусственного интеллекта, искусственный интеллект создан для того, чтобы делать это сам по себе. Без задержек, без дорогостоящей работы и т.д.

Недостатком этой удобной самонастройки является то, что подозрение может становиться все больше и больше в рамках использования ИИ. В то время как предвзятость, возможно, была в узком уголке, теперь у нее есть место для расширения. У ИИ нет подозрения, что это «неправильно», и он просто вычислительно расширяет то, что вроде бы работает.

Если от этого волосы встанут у вас на голове, вам нужно сесть за следующий вариант.

Предположим, что предвзятости не существовало с самого начала, и у нас есть все основания полагать, что ИИ полностью свободен от предвзятости. Нам либо повезло, либо, возможно, мы систематически следили за тем, чтобы нигде в данных не было предубеждений, и они не возникали в результате сопоставления вычислительных шаблонов. Несмотря на этот вздох облегчения, ИИ можно настраивать во время использования. Дверь Пандоры открыта, и ИИ предпочитает вычислительно тяготеть к предубеждениям, которые обнаруживаются во время всего, что делает ИИ.

Вновь обнаруженное предубеждение поглощается ИИ, и никто особенно не понимает, что это произошло. Да, мы создали монстра, настоящего Франкенштейна.

Как это появление можно предотвратить или, по крайней мере, отметить?

Один из подходов, который набирает обороты, состоит во встраивании в ИИ компонента по подбору этики. ИИ построен так, чтобы включать элементы этического ИИ. Затем эти элементы наблюдают или контролируют остальную часть ИИ, пока ИИ со временем настраивается. Когда кажется, что ИИ выходит за рамки запрограммированных этических предписаний, этический ИИ пытается использовать эти корректировки или предупреждает разработчиков о том, что что-то пошло не так.

Вы можете попробовать запрограммировать этот Этический ИИ, контролирующий способность, и надеяться, что он будет преобладать, пока ИИ используется.

Другим несколько спорным аспектом будет использование машинного обучения и глубокого обучения для обучения аспектам этического ИИ в системе ИИ.

Чего-чего?

Да, возможно, неортодоксальная концепция заключается в том, что вместо программиста-человека, непосредственно кодирующего набор этических предписаний ИИ, ИИ создан для того, чтобы попытаться «выучить» их. Вспомните, что я кратко отметил, что использование ML/DL обычно основано на вводе данных в алгоритмы, и происходит сопоставление вычислительных шаблонов. Вопрос на миллион долларов заключается в том, сможем ли мы использовать тот же механизм для внедрения этических ценностей в систему ИИ.

Я полагаю, вы могли бы уподобить это моему рассуждению в начале о том, как люди осознают этические принципы, хотя, пожалуйста, не антропоморфизируйте сегодняшний ИИ, сравнивая его с человеческим мышлением (это не так, и я вскоре повторю это увещевание). ИИ может быть запрограммирован «внутренне» в соответствии с этическими принципами ИИ. Или ИИ мог бы «выучить» этические предписания ИИ. Конечно, вы можете сделать и то, и другое, о чем я рассказывал в другом месте, см. ссылка здесь.

Найдите минутку, чтобы обдумать, казалось бы, поразительную идею о том, что ИИ может «учиться» этике и, следовательно, предположительно следовать этичному поведению.

Эти исследователи используют пример системы ИИ, которая определяет желаемую температуру в доме, чтобы проиллюстрировать, как это может работать: «Сначала она «наблюдала» за поведением людей в разных домохозяйствах всего за неделю и делала выводы об их предпочтениях. Затем он использовал датчик обнаружения движения, чтобы определить, есть ли кто-нибудь дома. Когда дом был пуст, умный термостат переходил в режим высокой экономии энергии; когда люди были дома, термостат регулировал температуру в соответствии с их предпочтениями. Этот термостат явно соответствует двум требованиям этического бота, хотя и очень простому. Он оценивает предпочтения людей и накладывает их на элементы управления системой отопления и охлаждения. Можно спросить, какое это имеет отношение к общественным моральным ценностям. Этот термостат позволяет людям с разными ценностями иметь настройки температуры, которые они предпочитают. Жителям дома не нужно каждый день переустанавливать термостат, приходя и уходя. Этот простой этический бот также снижает общий энергетический след сообщества» (согласно статье Амитая Этциони и Орена Этциони, озаглавленной «Этика с помощью ИИ» в томе, посвященном Этика и информационные технологии).

Прежде чем я углублюсь в тонкости ИИ, который «обучается» этичному поведению, я хотел бы кое-что сказать о статусе ИИ.

ИИ может состоять из следующих возможных состояний:

1. Неразумный старый добрый ИИ сегодняшнего дня

2. Разумный ИИ человеческого качества (у нас его пока нет)

3. Разумный ИИ, обладающий сверхразумом (выше пункта 2).

Я собираюсь сосредоточиться на существующем состоянии, которое представляет собой неразумный старый добрый ИИ. Многое из того, что вы можете прочитать об этическом ИИ, иногда касается разумного ИИ и поэтому является весьма спекулятивным. Я говорю, что это умозрительно, потому что никто не может пригвоздить хвост к ослику того, каким будет разумный ИИ. Еще дальше, чем человеческий разумный ИИ, находится широко разрекламированный сверхразумный ИИ. Есть много научно-фантастических историй и сомнений о том, как эти разновидности ИИ могут решить поработить человечество или, может быть, просто уничтожить нас всех. Это известно как экзистенциальный риск ИИ. Иногда эта дилемма также формулируется как катастрофический риск ИИ.

Некоторые утверждают, что с нами может быть все в порядке, пока мы сохраняем ИИ на уровне неразумного старого ИИ, который у нас есть сегодня. Предположим, мы не можем связаться с разумным ИИ. Представьте, что как бы мы ни старались создать разумный ИИ, у нас это не получается. Кроме того, предположим для обсуждения, что разумный ИИ не возникает в результате какого-то таинственного спонтанного процесса.

Разве мы тогда не уверены, что этот ИИ меньшего калибра, который является воображаемым единственно возможным видом ИИ, будет использоваться?

На самом деле, нет.

Скорее всего, возникнут одни и те же общие проблемы. Я не утверждаю, что ИИ «думает» о своем желании уничтожить нас. Нет, обычный неразумный ИИ просто ставится на руководящие должности, из-за которых мы погрязаем в саморазрушении. Например, мы внедряем неразумный ИИ в оружие массового уничтожения. Это автономное оружие не способно мыслить. В то же время люди не полностью в курсе событий. В результате ИИ как форма автономной автоматизации в конечном итоге непреднамеренно приводит к катастрофическим результатам либо из-за команды человека, либо из-за бага или ошибки, либо из-за внедренного злодеяния, либо из-за самонастройки, которая приводит к тому, что дела идут вниз. некрасивый путь и т.

Я бы сказал, что проблема этики ИИ существует для всех трех состояний, предусмотренных ИИ, а именно, что у нас есть этические проблемы ИИ с неразумным старым ИИ и с разумным ИИ, который является либо просто человеческим уровнем, либо протянутым ИИ, который достигает известный уровень сверхразума.

Учитывая это отрезвляющее заявление, мы можем с уверенностью обсуждать масштабы и трудности, связанные с этическими проблемами на каждом из соответствующих уровней ИИ. Общепринятая точка зрения состоит в том, что этические трудности ИИ менее непреодолимы на неразумном ИИ, более сложны на разумном уровне ИИ, равном человеческому, и представляют собой настоящую головную боль на стадии разумного сверхразумного ИИ.

Чем лучше становится ИИ, тем острее становится проблема этики ИИ.

Может быть, это непреложный закон природы.

Возвращаясь к сегодняшнему ИИ, попытка заставить ИИ «обучиться» этичному поведению с помощью современного машинного обучения и глубокого обучения чревата проблемами и сложными проблемами. Предположим, что ИИ не сможет подобрать желаемые этические принципы? Как мы узнаем наверняка, что он запнулся при этом? Кроме того, будут ли другие части системы искусственного интеллекта потенциально перевешивать собранные этические конструкции? Добавьте к этому, что если ИИ подстраивается на лету, корректировки могут ослабить этические аспекты или непреднамеренно перевесить их.

Что еще хуже, «обучение» может привести к тому, что ИИ начнет вести себя действительно неэтично. В то время как мы думали, что поступаем правильно, подталкивая ИИ к этичности, оказалось, что вместо этого ИИ скатился к сопоставлению с образцом в неэтичных аспектах. Если говорить о том, чтобы прострелить себе ногу, это вполне может случиться.

Могу поспорить, что на данном этапе обсуждения вам нужны дополнительные примеры из реальной жизни, которые могли бы показать, как «обучение» этике ИИ может быть применимо к сегодняшнему ИИ (кроме вкусного тизера примера с термостатом).

Я рад, что вы спросили.

Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-нибудь о способности ИИ «учиться» заповедям этического ИИ, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

На 5-м уровне еще нет настоящей машины для самостоятельного вождения, о которой мы еще даже не знаем, удастся ли этого достичь, и сколько времени потребуется, чтобы туда добраться.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Самоуправляемые автомобили и этичная прививка ИИ

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я верю, что это дает достаточный перечень предостережений, чтобы обосновать то, что я собираюсь рассказать.

Сейчас мы готовы к глубокому погружению в самоуправляемые автомобили и возможности этического ИИ, что влечет за собой вызывающее удивление утверждение, что мы можем заставить ИИ «учиться» этичному поведению самостоятельно.

Возьмем простой пример. Беспилотный автомобиль на основе искусственного интеллекта движется по улицам вашего района и, кажется, едет безопасно. Поначалу вы уделяли особое внимание каждому случаю, когда вам удавалось мельком увидеть беспилотный автомобиль. Автономное транспортное средство выделялось своей стойкой электронных датчиков, включая видеокамеры, радары, устройства LIDAR и тому подобное. После многих недель, когда беспилотный автомобиль колесит по вашему району, вы едва замечаете его. Насколько вам известно, это просто еще одна машина на и без того загруженных дорогах общего пользования.

Чтобы вы не думали, что знакомство с беспилотными автомобилями невозможно или неправдоподобно, я часто писал о том, как места, которые находятся в рамках испытаний беспилотных автомобилей, постепенно привыкли видеть обновленные автомобили. см. мой анализ на эта ссылка здесь. Многие из местных жителей в конечном итоге перешли от восторженного таращивания рта, разинув рот, к тому, чтобы теперь широко зевать от скуки, наблюдая за этими извилистыми беспилотными автомобилями.

Вероятно, главная причина, по которой сейчас они могут заметить автономные транспортные средства, заключается в факторе раздражения и раздражения. Стандартные системы вождения с искусственным интеллектом следят за тем, чтобы автомобили соблюдали все ограничения скорости и правила дорожного движения. Для беспокойных водителей-людей в их традиционных автомобилях, управляемых людьми, вы иногда раздражаетесь, когда застреваете за строго законопослушными самоуправляемыми автомобилями на основе искусственного интеллекта.

Это то, к чему нам всем, возможно, нужно привыкнуть, справедливо это или нет.

Вернемся к нашей сказке. Однажды предположим, что в вашем городе или городе проезжает беспилотный автомобиль, и он сталкивается с ситуацией, когда пешеход ждет, чтобы перейти дорогу. Предположим, что пешеход не имеет права преимущественного проезда как такового. Автомобиль, управляемый человеком, может проехать мимо пешехода, и это будет совершенно законно. Точно так же система вождения AI имеет законное право объезжать ожидающего пешехода.

Решение о том, остановиться и позволить пешеходу перейти улицу, полностью зависит от водителя, независимо от того, является ли он водителем-человеком или системой вождения с искусственным интеллектом.

Я уверен, что вы сталкивались с такой ситуацией бесчисленное количество раз. Может быть, вы спешите, поэтому не останавливаетесь, чтобы пропустить пешехода. В другом случае у вас есть достаточно времени, чтобы добраться до места назначения, поэтому вы решаете остановиться и позволить ожидающему человеку перейти улицу. Ваше настроение и конкретные обстоятельства определяют, что вы будете делать.

Ничто в этом сценарии не кажется необычным или неприятным.

Прежде чем я расскажу об искусственном интеллекте, вам может быть интересно узнать, что этот конкретный аспект свободы действий, позволяющий пешеходу переходить улицу, был тщательно изучен. Исследователи установили, что иногда выбор, сделанный водителем, может явно зависеть от расовых или гендерных предубеждений. Водитель-человек может оценить ожидающего пешехода и разрешить ему перейти дорогу, исходя из врожденных предубеждений водителя. Осознает ли водитель, что он это делает, вопрос продолжающихся исследований. Смотрите мое освещение на эта ссылка здесь.

Я подготовил почву для нашего изучения того, что может сделать система вождения с искусственным интеллектом в ситуации с пешеходным переходом.

Обычное программирование ИИ может привести к тому, что разработчики ИИ решат, что система вождения ИИ всегда останавливается и пропускает пешехода. Казалось бы, это этически правильный или цивилизованный поступок. Беспилотный автомобиль подчиняется ожидающему человеку, который хочет перейти улицу.

Осмелюсь сказать, что если бы вы были пассажиром в беспилотном автомобиле, а ИИ всегда останавливал бы всех ожидающих пешеходов, вы могли бы сойти с ума. Ваш быстрый поход в продуктовый магазин может занять во много раз больше времени. Помните также, что мы не имеем в виду пешеходов, которые имеют благочестивое законное право перехода, поскольку в этих случаях ИИ, по-видимому, уже запрограммирован на постоянное разрешение. Мы ориентируемся только на дискреционные обстоятельства.

Есть и другие недостатки в этой декларации всегда останавливаться, чтобы позволить дискреционным пешеходам перейти улицу.

Те, кто производит и внедряет беспилотные автомобили на основе ИИ, хотят, чтобы люди ездили на них. Идея состоит в том, что, имея автомобили с автоматическим управлением, мы могли бы сократить количество ежегодных автомобильных аварий, которые в настоящее время приводят к примерно 40,000 2.5 смертей в год и XNUMX миллионам травм только в Соединенных Штатах. эта ссылка здесь. Помимо этой почитаемой в обществе цели, автопроизводители и производители беспилотных технологий также надеются заработать деньги на своих творениях ИИ, что естественно.

Я упоминаю об этом, потому что люди могут решить не ездить на беспилотных автомобилях, если система вождения с искусственным интеллектом будет делать то, что им не нужно. необязательно заканчиваются откладыванием поездок. Любой обычный человек подумает, что если вместо этого выбрать водителя-человека, поездка может быть быстрее, и, следовательно, выбор для поездки автомобиля с искусственным интеллектом может оказаться очень далеко в списке их вариантов выбора. Это, в свою очередь, означало бы, что у нас не будет желаемого сокращения автомобильных аварий, а также то, что производители потенциально сочтут свои товары убыточными.

Учитывая этот набор аргументов, вы можете подумать, что ИИ никогда не должен останавливаться, когда возникает дискреционный случай пешехода, желающего перейти улицу. Просто запрограммируйте систему управления ИИ так, чтобы она делала все, что строго законно. Если закон не требует пропустить пешехода, то этому ожидающему пешеходу не повезло. Возможно, человеку следует добраться до контрольно-пропускного пункта, который позволяет ИИ остановить беспилотный автомобиль на законных основаниях.

Вы представляете возмущение по этому поводу?

Люди в вашем городе постепенно обнаруживают, что беспилотные автомобили с искусственным интеллектом никогда не позволят пешеходу перейти дорогу. Этот проклятый вспыльчивый ИИ! Это как если бы ИИ тыкал носом в людей. Невоспитанный сопляк из нехорошей автоматики. В довершение всего представьте, что есть задокументированные обстоятельства, когда пешеходы отчаянно нуждаются в переходе, а ИИ вообще не остановится.

Между тем водители-люди охотно останавливались, чтобы позволить этим «отчаявшимся» людям безопасно перейти улицу.

В результате этого возмущения беспилотные автомобили с искусственным интеллектом больше не приветствуются на улицах и в переулках вашего региона. Разрешения, выданные руководством города, аннулируются. Избавиться от неблагодарных животных с наших дорог — громкий шум.

Ладно, кажется, мы между молотом и наковальней. ИИ не всегда должен пропускать дискреционного пешехода (не всегда останавливаться). ИИ не всегда должен препятствовать переходу пешехода по своему усмотрению (не всегда проезжайте мимо). Что делать?

Очевидным ответом было бы запрограммировать ИИ действовать по своему усмотрению.

Я прошу вас подумать о ADM (алгоритмическом принятии решений), из которого это должно состоять. Будет ли ИИ пытаться определить характер пешехода и использовать выявленные характеристики в качестве основы для принятия решения о том, останавливать ли беспилотный автомобиль или нет? Может быть, кто-то старше на вид - это способ выбрать. Но происходит ли эта возрастная дискриминация? И так далее.

Возможно, система вождения ИИ запрограммирована на остановку в дневное время и никогда не останавливается в ночное время. Логика, возможно, заключается в том, что для водителей беспилотного автомобиля считается более безопасным, чтобы автономный автомобиль останавливался в дневное время, а не в более мрачные часы вечернего времени.

Возможно, это звучит разумно. Частью проблемы будут ожидания пешеходов. Вот что я имею в виду. Пешеходы видят, как беспилотные автомобили с искусственным интеллектом останавливаются для дискреционных переходов, что происходит днем. Пешеходы не знают, по каким критериям ИИ решает остановиться. Некоторые пешеходы предполагают, что ИИ всегда будет останавливаться (не понимая, что дневной свет и ночное время являются истинным определяющим фактором). В результате те пешеходы, которые верят, что беспилотный автомобиль всегда остановится, рискуют и начинают переходить дорогу, когда система вождения ИИ вовсе не стремится остановиться (а ИИ, скорее всего, остановится, если пешеход выходит на улицу, хотя это может быть рискованно, а физика может помешать ИИ остановить беспилотный автомобиль за недостаточное время, чтобы избежать столкновения с, казалось бы, «заблудшим» пешеходом).

Предположим, что разработчики ИИ и фирмы, собирающие и выпускающие беспилотные автомобили в вашем городе, не знают, как ускорить ИИ в этом вопросе.

Они решают «обучить» ИИ на данных, собранных со всего региона. Оказывается, есть множество городских камер, которые фиксируют въезд и выезд автомобилей по всему поселку. Эти данные демонстрируют множество случаев, когда пешеходы пытались перейти улицу по своему усмотрению. Все данные передаются в систему машинного обучения и глубокого обучения для получения того, что считается обычным в этой юрисдикции.

Обучаем ли мы ИИ тому, что нужно делать в соответствии с местными этическими нравами?

Другими словами, если в данном городе местная культура больше склонна останавливаться и пропускать пешеходов по своему усмотрению, о чем свидетельствуют действия человека-водителя, ML / DL потенциально может вычислить этот шаблон. Затем ИИ будет обучен делать то же самое. С другой стороны, если люди-водители редко останавливаются, ИИ потенциально может получить этот «урок» из вычислительного анализа данных. ИИ будет делать то же, что и люди.

Утверждение состоит в том, что этическое поведение людей фиксируется в данных и что ИИ собирается внедрить те же самые этические предписания с помощью вычислительного анализа. Специалисты по этике обычно описывают это как коммунитарный подход к этике. Общие ценности сообщества отражаются в усилиях сообщества в целом.

Это может показаться денди решением.

К сожалению, есть много подводных камней.

Одна, возможно, очевидная проблема заключается в том, что люди-водители уже могут проявлять некоторую предвзятость при выборе остановки или не остановки (как упоминалось ранее). Тогда ИИ станет подражателем этих предубеждений. Хотим ли мы, чтобы это было так?

Рассмотрим другую проблему. Предположим, что водители-люди не с готовностью принимают то, как работают беспилотные автомобили с искусственным интеллектом. То, что водители-люди, скажем, были готовы остановиться, может не относиться к самоуправляемым автомобилям в равной степени. Возможно, водителей-людей раздражают беспилотные автомобили с искусственным интеллектом, которые продолжают останавливаться для дискреционных пешеходов, хотя то же самое происходит и руками водителей-людей, но это, похоже, не беспокоит водителей-людей.

Помимо беспокойства, вы также можете вызвать в воображении возможность того, что люди-водители непреднамеренно врежутся в заднюю часть беспилотных автомобилей. Если человек-водитель не ожидал, что беспилотный автомобиль остановится перед пешеходом, и если управляемый человеком автомобиль находится непосредственно за беспилотным автомобилем, может возникнуть серьезное несоответствие ожиданий. Система вождения AI останавливает беспилотный автомобиль. Водитель-человек не ожидал этого действия. Водитель-человек врезается в беспилотный автомобиль. Возможны травмы и, возможно, летальные исходы.

Я намеренно указал на возможность причинения вреда человеку.

Вопрос пешехода, переходящего улицу, на первый взгляд может показаться тривиальным вопросом. Казалось бы, никто не может пострадать, независимо от того, какой метод ИИ решит остановить или не остановить. Неправильно! Есть вероятность, что пешехода задавит. Существует вероятность того, что автомобиль, управляемый человеком, врежется в беспилотный автомобиль. Водитель и пассажиры автомобиля, управляемого человеком, могут пострадать. Водители внутри беспилотного автомобиля могут пострадать. Легко представить себе дополнительные варианты возможного вреда для человека.

Заключение

Говоря о человеческом вреде, я дам вам еще кое-что, чтобы заставить вас задуматься над этой загадкой этического ИИ.

В новостях сообщалось, что мужчина выехал на автомобиле на перекресток, и на это у него был зеленый свет. Другой автомобиль, управляемый человеком, решил проехать на красный свет перекрестка и незаконно и небезопасно беспрепятственно выехал на перекресток, угрожая задеть законно действующий автомобиль.

Водитель сказал репортерам, что ему пришлось выбирать между тем, чтобы принять удар, или он мог повернуть свою машину, чтобы избежать удара, но поблизости были пешеходы, и изменение направления могло подвергнуть этих людей опасности. Что бы ты сделал? Вы можете выбрать, чтобы вас сбила эта надвигающаяся машина, и, возможно, выживете, чтобы рассказать эту историю. Или вы можете попытаться избежать удара, но при этом, возможно, сбить невинных пешеходов.

Большая часть нашего ежедневного вождения связана с такими этически огромными и мгновенными решениями, которые необходимо принять. Я подробно обсуждал это, а также связывал эти жизненно важные решения со знаменитой или, как говорят, печально известной проблемой вагонетки. ссылка здесь.

Замените водителя-человека в этом сценарии системой вождения с искусственным интеллектом.

Что вы хотите, чтобы ИИ делал?

Это сложный вопрос.

Один из подходов состоит в том, чтобы запрограммировать ИИ так, чтобы он резко выполнял чисто прямолинейное движение, таким образом, даже не рассматривая в вычислительном отношении другие варианты, такие как уклонение от вероятной аварии. Я ожидаю, что водители беспилотных автомобилей будут расстроены, узнав, что ИИ не был разработан ни для чего другого, кроме как для того, чтобы принимать удары. Можно ожидать судебных исков и скандала.

Другой подход — попытаться запрограммировать ИИ на рассмотрение различных возможностей. Кто же должен установить ADM, который решает, в каком направлении будет работать система управления ИИ? Казалось бы, позволять разработчикам ИИ самостоятельно принимать такие весомые решения чревато избытком опасений.

Вы можете попытаться позволить ИИ «учиться» на данных о вождении человека, собранных в повседневных дорожных ситуациях. Это сродни дилемме пешеходного перехода и предложенной ранее идее использования собранных данных для того, чтобы ИИ собирал информацию о местных этических нравах. Есть много предостережений по этому поводу, например, являются ли шаблоны, обнаруженные ML/DL, подходящими или нет, и т. д.

Я также предупредил, что существует вероятность того, что ИИ выявит, возможно, неэтичное поведение, в зависимости от затронутых этических норм. Например, предположим, что ИИ каким-то образом приземлился на вычислительный шаблон, чтобы всегда целиться в пешеходов всякий раз, когда другой автомобиль угрожал столкнуться с беспилотным автомобилем.

Вау, следите за пешеходами, вы будете готовыми мишенями.

Пора закрыть дискуссию на данный момент и сделать это с обнадеживающей заключительной мыслью.

Возможно, вы знаете, что Айзек Азимов предложил свои «Три закона робототехники» в 1950 году, и мы до сих пор восхищаемся этими провозглашенными правилами. Хотя правила кажутся легко выполнимыми, например, что система ИИ или робот не должны причинять вред человеку и не допускать причинения вреда человеку, существует множество важных нюансов, которые делают это сложным, а иногда и несостоятельным, см. мой анализ. в ссылка здесь.

В любом случае, вот еще кое-что, чем Азимов также известен, хотя и в меньшей степени: «Никогда не позволяйте своему чувству морали мешать поступать правильно».

Что касается этического ИИ, который мы все надеемся разработать, мы должны помнить, что внедренная этика ИИ может оказаться не такой, как мы ожидали, и что ИИ каким-то образом все равно должен будет делать то, что правильно. Азимов хорошо сказал. Задолго до этого Аристотель, казалось, думал о том же.

Источник: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- случай-с-ИИ-в-автономных-беспилотных-автомобилях/