Уроки этики ИИ и автономных систем, извлеченные из недавнего рейса авиакомпании Alaska Airlines, когда пилот и второй пилот не пришли к согласию перед взлетом и внезапно решили вырулить обратно в терминал и пойти разными путями

Авиакомпании в последнее время часто упоминаются в новостях.

У нас летний хруст рейсов. Усталые и разочарованные пассажиры сталкиваются со всевозможными сбоями рейсов и нарушениями расписания авиакомпаний. Рейсы неожиданно отменяют. Рейсы задерживаются. Пассажиры дымятся. К сожалению, было много случаев, когда пассажиры позволяли этим неприятностям прорываться наружу, и мы видели, к сожалению, слишком много вирусных видеороликов с лобовыми столкновениями, а иногда и с кулачными боями.

Реже мы узнаем о спорах между пилотом и вторым пилотом, которые могут возникнуть в кабине.

Это довольно неожиданно.

Действительно, мы, естественно, озадачены мыслью о том, что между пилотом и вторым пилотом могут возникнуть хоть какие-то серьезные разногласия на любом этапе полета. Если разногласия касаются того, какая марка кофе лучше, мы предполагаем, что это не будет мешать работе, связанной с полетом на самолете. Эти двое просто не обращали внимания на отсутствие прямых взглядов на тему, казалось бы, не имеющую отношения к полету. Их профессиональное поведение и многолетняя подготовка пилотов сработали, и они снова сосредоточили свое внимание на деталях полета.

Учтите, однако, когда профессиональное несогласие вмешивается.

Я собираюсь кратко поделиться с вами широко опубликованной новостью о недавнем случае чего-то, что произошло во время полета в США, в связи с заявленным профессиональным разногласием в кабине.

В основном это цитируется здесь, чтобы мы могли исследовать связанную тему, которая имеет большое значение для появления искусственного интеллекта (ИИ). Видите ли, может быть форма, скажем так, профессионального разногласия между людьми не только в разногласиях между людьми, но у нас также может произойти что-то подобное во время принятия ИИ и, следовательно, в результате профессиональных разногласий между людьми и ИИ. . Возникают всевозможные соображения по поводу этики ИИ. Подробное и постоянное освещение вопросов этики ИИ и вопросов этики ИИ см. ссылка здесь и ссылка здесь, просто назвать несколько.

Приготовьтесь к увлекательной сказке.

Как недавно сообщалось в новостях, случай «профессионального разногласия», по-видимому, возник во время рейса Alaska Airline, следовавшего из Вашингтона в Сан-Франциско. По сообщениям новостей, самолет отошел от выхода на посадку и ждал на летном поле разрешения на руление и вылет. Начавшийся шторм привел к задержке рейса более чем на полтора часа. Выяснилось, что самолет в конце концов развернулся и направился обратно к выходу на посадку, что некоторые пассажиры обычно могли принять за меру предосторожности, связанную со штормом.

Согласно различным твитам, кажется, что пилот и второй пилот имели какую-то скрытую вражду во время своего пребывания в кабине и каким-то образом пришли к выводу, что наиболее разумным подходом будет отменить полет и вернуться в терминал. . Твиты предполагали, что капитан и первый помощник явно не ладили друг с другом. Позже авиакомпания опубликовала заявление о том, что ситуация была неудачной (ситуация не была прямо заявлена ​​или объяснена как таковая), два летных офицера были оценены руководством и признаны годными к полету, экипажи поменялись местами, и полет в конечном итоге состоялся. и позже достиг Сан-Франциско.

В каком-то смысле, если на самом деле между пилотом и вторым пилотом действительно возникло профессиональное разногласие, например, был ли самолет должным образом готов к полету или находился ли риск полета во время шторма в безопасном диапазоне, эти пассажиры должны быть освобождены и благодарны, что самолет вернули к воротам. Лучше быть в безопасности, чем потом сожалеть. Дополнительная задержка стоит предполагаемого снижения рисков, связанных с предполагаемым трудным или неблагоприятным полетом.

Некоторые люди могут быть удивлены, что могут возникнуть такие профессиональные разногласия.

Возможно, у нас сложилось ложное впечатление, что все, что происходит в кабине, совершенно точно и хорошо прописано. Все формы человеческой осмотрительности, по-видимому, были исключены из процесса. Основываясь на точных и тщательно рассчитанных картах, полет либо можно продолжать, либо нет. Не может быть никаких разногласий, когда считается, что весь этот набор и чепуха основаны на неопровержимом исчислении фактов и цифр.

Это не вся правда. Конечно, есть множество протоколов и всевозможных сдержек и противовесов, но это не выжимает из себя всю йоту человеческого суждения. Пилоты и вторые пилоты по-прежнему руководствуются человеческими суждениями. К счастью, это человеческое суждение оттачивается годами полетов. Скорее всего, пилот и второй пилот коммерческого пассажирского самолета имеют большой опыт полетов и с готовностью используют свои многолетние глубокие рассуждения и суждения, связанные с работой за штурвалом.

Учитывая заметную роль человеческого суждения, мы могли бы логически предположить, что между пилотом и вторым пилотом иногда будут возникать профессиональные разногласия. По-видимому, в большинстве случаев таких разногласий очень мало. Пилот и второй пилот для ежедневных полетов, скорее всего, будут хорошо согласованы с перевесом времени. Только когда сценарий полета может выйти за обычные рамки, мы можем ожидать возникновения более напряженных трений.

Если между ними есть сильное расхождение во мнениях, я бы осмелился сказать, что мы хотим, чтобы они уладили это.

Представьте ситуацию, когда пилот решительно хочет продолжить движение, но второй пилот понимает, что риск слишком высок. Простое подчинение второго пилота пилоту казалось бы нежелательным. Второй пилот — это контроль и баланс того, что пилот может думать о том, что делать. Для тех, кто хочет, чтобы второй пилот заткнулся и действовал исключительно бездумно в соответствии с указаниями пилота, это не слишком успокаивает. Второй пилот — это не просто запасной «пилот», который появляется в кадре только тогда, когда пилот полностью выведен из строя. Это ошибочное понимание ценности пилота и второго пилота в кабине.

На это есть другой ракурс.

Рассмотрим случай с пилотом, который не верит, что полет должен продолжаться, а второй пилот тем временем с энтузиазмом относится к тому, чтобы подняться в воздух. Что тогда? По ожидаемой иерархии предполагается, что пилот условно превалирует над вторым пилотом. Назначенная роль главного ответственного делает пилота более великим, чем то, что в остальном несколько равно. Обычно у пилота больше общего времени налета, чем у второго пилота, и, следовательно, второй пилот иерархически должен подчиняться желаниям пилота (когда в пределах разумного).

В любом случае, я думаю, мы все можем согласиться с тем, что решение не летать, безусловно, менее рискованно, чем решение лететь. Как только самолет поднимается в воздух, уровень риска становится огромным по сравнению с любой обычной стабильной землей. Обычный коммерческий рейс, который просто подруливает обратно к терминалу, не поднявшись в воздух, был бы довольно дружелюбным решением любых жарких ожесточенных споров о том, чтобы отправиться в полет.

Давайте сменим тему и воспользуемся этой смелой новостью для совершенно другой, но связанной с этим цели.

Среди нас постепенно преобладают автономные системы на основе ИИ. Иногда всем заправляет ИИ. ИИ делает все от А до Я, и мы можем истолковать это как полностью автономный или почти автономный ИИ. В других случаях у нас может быть ИИ, который взаимодействует и в какой-то степени запрограммирован на зависимость от присутствия человека в цикле.

Я хотел бы сосредоточиться на вопросе автономной или полуавтономной системы на основе ИИ, в которой с самого начала присутствует человек. ИИ и человек намеренно объединены и должны работать в тандеме друг с другом. Это когорты, выполняющие конкретную задачу. Один только ИИ не должен выполнять задачу. ИИ должен взаимодействовать с назначенным человеком в цикле.

Я привожу эту характеристику, чтобы отличать ее от ситуаций, в которых участие человека в петле считается необязательным аспектом. По сути, ИИ предоставляется полная свобода действий. Если ИИ решит использовать человека, пусть будет так. Не требуется, чтобы ИИ контактировал с назначенным человеком или работал рука об руку с ним. Анализы, о которых я собираюсь рассказать, несомненно относятся к такого рода необязательный организация взаимодействия, но это не то, к чему я конкретно стремлюсь в данном конкретном обсуждении.

Итак, у нас есть некая задача, над которой человек и ИИ будут работать вместе, неотделимо друг от друга. В абстрактном смысле у нас есть человек, сидящий на одном сиденье, и система ИИ, сидящая на другом сопровождающем сиденье. Я говорю это дерзко, потому что мы не ограничиваем это обсуждение, например, роботом, который на самом деле может сидеть в кресле. Я метафорически намекаю на то, что ИИ где-то участвует в задаче, как и человек. Физически их местонахождение не имеет особого значения для обсуждения.

Вы можете не знать, когда такое обстоятельство может возникнуть.

Очень просто.

Позже я буду обсуждать появление автономных транспортных средств и беспилотных автомобилей. Предполагается, что на определенных уровнях автономии ИИ и человек должны работать вместе. ИИ может управлять автомобилем и потребовать, чтобы человек взял на себя управление вождением. Человек может управлять автомобилем и активировать ИИ, чтобы взять на себя управление. Они по очереди садятся за руль.

Кроме того, в некоторых проектах ИИ по существу активен все время (или, если он не отключен), так что ИИ всегда готов. Кроме того, ИИ может вмешаться напрямую, даже без просьбы человека, в зависимости от разворачивающейся ситуации. Предположим, например, что человек заснул за рулем. Поскольку человек, по-видимому, не может активировать ИИ (потому что человек спит), ИИ может быть запрограммирован на то, чтобы взять на себя управление от человека.

В некоторых конструкциях ИИ и люди используют двойной подход к вождению. ИИ за рулем, а человек за рулем. Или, если хотите, человек за рулем, и ИИ тоже за рулем. Каждый из них управляет транспортным средством. Я сравниваю это с теми специально оборудованными автомобилями, которые вы, возможно, использовали во время обучения вождению, и в автомобиле было два набора органов управления: один для водителя-студента и один для инструктора по вождению.

Это всего лишь один пример ситуации, в которой ИИ и люди могут совместно работать над задачей. Всевозможные возможности существуют. Подобным образом могут быть разработаны и другие виды автономных транспортных средств, такие как самолеты, дроны, подводные аппараты, надводные корабли, поезда и так далее. Нам не нужно учитывать только транспортные средства и условия транспортировки. Представьте себе медицинскую область и операции, которые выполняются совместно врачом и системой искусственного интеллекта. Список бесконечен.

Мне почти хочется сослаться на классическую шумную шутку о человеке и ИИ, которые вместе заходят в бар. Это настоящий смех для тех, кто увлекается ИИ.

Серьезно, давайте вернемся к фокусу человека и системы ИИ, которые вместе работают над данной задачей. Во-первых, я хочу избежать антропоморфизации ИИ, чему я буду постоянно подчеркивать. ИИ не разумен. Пожалуйста, имейте это в виду.

Вот над чем поразмыслить: Будет ли назначенный человек в цикле всегда полностью согласен с объединенным в команду ИИ?

Для любой сложной задачи кажется маловероятным, что человек и ИИ будут полностью и всегда полностью синхронизированы. В некоторых случаях человек, возможно, не согласится с ИИ. Мы можем принять это предположение на всем пути к банку.

Я хотел бы, чтобы вы также рассмотрели эту, возможно, удивительную возможность: Всегда ли ИИ будет в полном согласии с назначенным «человеком в цикле»?

Опять же, для любой сложной задачи кажется вполне возможным, что в некоторых случаях ИИ не будет согласовываться с людьми. Если вы уже склоняетесь к идее, что ИИ всегда должен быть неправ, а люди всегда правы, было бы мудро переосмыслить этот поспешный вывод. Представьте себе автомобиль, в котором человек и ИИ совместно управляют полуавтономным транспортным средством. Человек направляется к кирпичной стене. Почему? Мы не знаем, возможно, человек пьян или заснул, но мы знаем, что врезаться в кирпичную стену — не лучшая идея при прочих равных условиях. ИИ может обнаружить надвигающееся бедствие и попытаться избежать надвигающегося барьера.

В общем, у нас будет явная возможность несогласия ИИ и человека друг с другом. Другой способ сказать то же самое состоит в том, что люди и ИИ не согласны друг с другом. Обратите внимание: я не хочу, чтобы последовательность ИИ-и-человека и человека-и-ИИ намекала на направление или правдоподобие разногласий.

Два работника, один человек и один ИИ, не согласны друг с другом.

Мы могли бы заранее заявить, что всякий раз, когда между данным ИИ и данным человеком возникает разногласие, мы заранее провозглашаем, что человек превалирует над ИИ. При этом мой наглядный пример с машиной, которая врезается в кирпичную стену, кажется, разубедил нас в том, что человек всегда обязательно будет прав.

Мы могли бы, напротив, заранее объявить, что всякий раз, когда возникает разногласие, мы заранее установим, что ИИ прав, а человек ошибается. Это также не является разумно обобщающим положением. Представьте себе автомобиль, в котором ИИ имеет встроенную программную ошибку или ошибку, и ИИ пытается направить автомобиль с дороги в кювет. Предполагая, что все остальные равны, человек должен быть в состоянии преодолеть это вождение ИИ и предотвратить посадку транспортного средства в овраге.

Давайте сделаем краткий обзор этого:

  • Всегда ли человек в курсе будет полностью согласен с ИИ? Ответ: Нет.
  • Всегда ли ИИ будет полностью согласен с человеком в курсе? Ответ: Нет.
  • Всегда ли человек в курсе будет прав по сравнению с ИИ? Ответ: Не обязательно.
  • Всегда ли ИИ будет прав по сравнению с человеком в петле? Ответ: Не обязательно.

Вы, конечно, можете настроить ИИ так, чтобы он по умолчанию считался «неправильной» или более слабой стороной, и поэтому всегда подчинялся человеку при возникновении разногласий. Точно так же вы можете настроить ИИ так, чтобы он считал ИИ «правильным» всякий раз, когда человек не согласен с ИИ. Я хочу уточнить, что мы можем сделать это программно, если захотим. Я утверждаю, что в целом так будет не всегда. Наверняка существуют условия, в которых мы не знаем заранее, «прав» ли ИИ или человек в том, что касается выбора в пользу того или иного решения при разногласии, связанном с данной задачей.

Я подвел вас к очень важному и очень сложному вопросу.

Что мы должны делать, когда между человеком в цикле и ИИ возникает профессиональное разногласие (или, что то же самое, мы можем сформулировать это как разногласие между ИИ и человеком в цикле)?

Не пытайтесь уклониться от вопроса.

Кто-то может возразить, что этого никогда не произойдет, но, как я показал в своем примере с автомобилем, это, безусловно, может произойти. Кто-то может возразить, что человек явно превосходит других и должен быть победителем в любых разногласиях. Мой пример с машиной и кирпичной стеной сбивает с толку. Есть сторонники ИИ, которые могут настаивать на том, что ИИ должен быть победителем из-за якобы преодоления человеческих эмоций и бессмысленного мышления этими случайными людьми с нечетким мышлением. Опять же, другой мой пример, связанный с падением машины в кювет, опровергает это утверждение.

В реальном мире ИИ и люди будут расходиться во мнениях, даже если они намеренно объединяются для выполнения совместной задачи. Это произойдет. Мы не можем прятать голову в песок и делать вид, что этого не произойдет.

Мы увидели, что люди, пилотирующие самолет, явно поссорились. К счастью, они согласились не согласиться, так что кажется. Они вернули самолет в терминал. Они нашли способ справиться с разногласиями. Разрешение их разногласий сработало хорошо, по сравнению с тем, если бы они, возможно, устроили драку в кабине или, возможно, поднялись в воздух и продолжали сражаться друг с другом. Это печальный сценарий, который несостоятелен, и мы можем быть благодарны, что этого не произошло.

Позвольте мне представить мой список различных способов, которыми могут быть разрешены разногласия между ИИ и человеком в цикле (или между человеком в цикле и ИИ):

  • ИИ и объединенный в команду человек решают вопросы (полюбовно или нет)
  • По умолчанию человек преобладает над ИИ
  • ИИ преобладает над человеком, по умолчанию
  • По умолчанию преобладает какое-то другое предопределенное фиксированное разрешение.
  • Сторонние люди закольцованы и их показания преобладают над сторонами
  • Сторонний ИИ закольцован и его индикация преобладает над сторонами
  • Сторонний человек заменяет существующего человека, все происходит заново
  • Сторонний ИИ заменяет существующий ИИ, все происходит заново
  • Сторонний человек заменяет существующий ИИ, все происходит заново (теперь человек-человек)
  • Сторонний ИИ заменяет существующего человека, все происходит заново (теперь AI-to-AI)
  • Другие контрактные услуги

Они вполне достойны того, чтобы их распаковали.

Прежде чем перейти к еще большему количеству мяса и картошки о диких и необъяснимых соображениях, лежащих в основе того, как бороться с ИИ и человеческими разногласиями, давайте изложим некоторые дополнительные основы по очень важным темам. Нам нужно кратко окунуться в этику ИИ и особенно в появление машинного обучения (МО) и глубокого обучения (ГО).

Возможно, вы смутно осознаете, что один из самых громких голосов в наши дни в области ИИ и даже за его пределами состоит в том, чтобы требовать большего подобия этического ИИ. Давайте посмотрим, что означает обращение к этике ИИ и этичному ИИ. Кроме того, мы рассмотрим, что я имею в виду, когда говорю о машинном обучении и глубоком обучении.

Один конкретный сегмент или часть этики ИИ, которая привлекает большое внимание средств массовой информации, состоит из ИИ, который демонстрирует неблагоприятные предубеждения и несправедливость. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в неэтичную пропасть (см. мой анализ таких возможностей на ссылка здесь).

Через мгновение я поделюсь с вами некоторыми всеобъемлющими принципами, лежащими в основе этики ИИ. Есть много таких списков, плавающих то здесь, то там. Можно сказать, что единого списка универсальной привлекательности и согласованности пока не существует. Это неприятная новость. Хорошая новость заключается в том, что, по крайней мере, существуют легкодоступные списки этики ИИ, и они, как правило, очень похожи. Все это говорит о том, что с помощью своего рода обоснованной конвергенции мы находим путь к общей общности того, из чего состоит этика ИИ.

Во-первых, давайте кратко рассмотрим некоторые из общих этических принципов ИИ, чтобы проиллюстрировать, что должно быть жизненно важным соображением для любого, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологий, процессов разработки и методов работы, применимых к возможностям ИИ, включая прозрачные и проверяемые методологии, источники данных, процедуры проектирования и документацию.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только кодеры» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как указывалось ранее, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна разбираться в принципах этики ИИ и соблюдать их.

Давайте также убедимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели дико рассуждать о чувствующий AI, эта дискуссия может пойти в совершенно ином направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхразумный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Давайте будем более приземленными и рассмотрим современный вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Вернемся к нашему вниманию к разногласиям между ИИ и человеком.

Ранее я указывал, что это некоторые из стратегий разрешения разногласий:

  • ИИ и объединенный в команду человек решают вопросы (полюбовно или нет)
  • По умолчанию человек преобладает над ИИ
  • ИИ преобладает над человеком, по умолчанию
  • По умолчанию преобладает какое-то другое предопределенное фиксированное разрешение.
  • Сторонние люди закольцованы и их показания преобладают над сторонами
  • Сторонний ИИ закольцован и его индикация преобладает над сторонами
  • Сторонний человек заменяет существующего человека, все происходит заново
  • Сторонний ИИ заменяет существующий ИИ, все происходит заново
  • Сторонний человек заменяет существующий ИИ, все происходит заново (теперь человек-человек)
  • Сторонний ИИ заменяет существующего человека, все происходит заново (теперь AI-to-AI)
  • Другие контрактные услуги

Пора их распаковать.

Во-первых, подумайте, что это все о профессиональный разногласия.

Профессиональное разногласие в общих чертах определяется как разногласие, связанное с рабочей задачей.

Например, разногласие, возникающее между пилотом и вторым пилотом по поводу того, следует ли продолжать полет во время шторма, можно обоснованно назвать профессиональным разногласием. Напротив, яростное разногласие по поводу того, какую марку кофе предпочитает пилот, а какую марку предпочитает второй пилот, в данном конкретном контексте легко классифицируется как непрофессиональное несогласие.

Конечно, если непрофессиональное разногласие перерастает в профессиональное разногласие, нас в конечном счете может заинтересовать непрофессиональное разногласие как предполагаемый источник или искра профессионального разногласия. Представьте, что пилот и второй пилот ожесточенно спорят о том, какая марка кофе лучше, что затем, к сожалению, выливается в специфические для полета вопросы (каламбур!), например, взлетать или нет.

Во-вторых, мы должны помнить о масштабах профессиональных разногласий.

Возможно, между пилотом и вторым пилотом или в легком разногласии по поводу продолжения полета. Они не ссорятся и просто обдумывают все за и против того, стоит ли взлетать. Это не тот калибр или масштаб профессионального разногласия, который мы обычно рассматриваем здесь. Дело в том, что может случиться так, что профессиональные разногласия преходящи, и обе стороны выработают решение сердечно или, по крайней мере, своевременно. Как правило, в центре внимания профессиональных разногласий находятся те, которые кажутся неразрешимыми, и две стороны постоянно остаются в разногласиях.

В-третьих, обычно должно быть что-то серьезное, чтобы эти рекомендации вступили в силу.

Выбор лететь или не лететь — это решение, которое может решить вопрос жизни или смерти, если полет находится под угрозой из-за шторма или если самолет считается не полностью подготовленным к такому путешествию. Это серьезный бизнес. Мы по-прежнему можем применять рекомендации к менее важным профессиональным разногласиям, хотя это может быть больше беспокойства, чем того стоит.

Хорошо, наши соображения таковы:

  • Разногласия преимущественно профессионально ориентированы, а не по поводу чего-то непрофессионального.
  • Разногласие носит устойчивый характер, а не просто временное или иным образом легко разрешимое.
  • Разногласие предвещает серьезные последствия и обычно имеет впечатляющий исход.
  • Стороны в ссоре, и они кажутся неразрешимыми

Давайте теперь подробнее рассмотрим каждое из предложенных мною рекомендаций или подходов относительно того, как справляться с такими профессиональными разногласиями.

ИИ и объединенный в команду человек решают вопросы (полюбовно или нет)

Я начинаю список с прямой возможности того, что ИИ и человек в цикле способны разрешить профессиональные разногласия между собой. Кажется, пример с двумя людьми, пилотом и вторым пилотом, иллюстрирует такое обстоятельство. Каким-то образом они решили вернуться к терминалу и разойтись. Возможно, система ИИ и человек способны найти подход к разрешению, который в целом удовлетворит обе стороны, и, таким образом, вопрос будет удовлетворительно завершен.

По умолчанию человек преобладает над ИИ

При настройке ИИ мы можем запрограммировать правило, которое гласит, что при возникновении профессионального разногласия всегда преобладает участие человека в процессе. Это будет явно закодированное значение по умолчанию. Мы могли бы также разрешить какую-либо форму переопределения, просто на всякий случай, хотя постоянное правило будет заключаться в том, что превалирует человек.

ИИ преобладает над человеком, по умолчанию

При настройке ИИ мы можем запрограммировать правило, которое гласит, что ИИ всегда должен преобладать над человеком в цикле всякий раз, когда возникает профессиональное разногласие. Это явно закодированное значение по умолчанию. Мы могли бы также разрешить некоторую форму переопределения, на всякий случай, хотя постоянное правило будет заключаться в том, что превалирует ИИ.

По умолчанию преобладает какое-то другое предопределенное фиксированное разрешение.

При настройке ИИ мы можем запрограммировать правило, которое говорит, что какое-то другое заранее определенное фиксированное решение будет преобладать всякий раз, когда возникает профессиональное разногласие с человеком в цикле. Человек в петле по умолчанию не преобладает. ИИ по умолчанию не преобладает. Есть еще какое-то предопределенное разрешение. Например, возможно, есть подбрасывание монеты, которая будет использована для того, чтобы решить, какую из двух сторон считать правильным путем. Очевидно, это могло бы показаться довольно произвольным; таким образом, другим примером подхода может быть использование специального правила, которое вычисляет значение на основе входных данных от двух сторон и получает результат в качестве разрешения конфликтов.

Сторонние люди закольцованы и их показания преобладают над сторонами

В случае профессионального разногласия правило может заключаться в том, что третья сторона, являющаяся человеком, вызывается и зацикливается на обстановке, чтобы принять решение об урегулировании разногласия. ИИ запрограммирован подчиняться тому, что решит сторонний человек. Человек, уже находящийся в режиме «человек в петле», был заранее проинструктирован, что в случае возникновения такой ситуации он также должен подчиняться стороннему человеку. Кроме того, вы, вероятно, можете ожидать, что человек в цикле может испытывать тревогу по поводу того, чтобы согласиться с тем, что решит сторонний человек, если это решение не согласуется с позицией человека в цикле.

Сторонний ИИ закольцован и его индикация преобладает над сторонами

В случае профессионального разногласия правило может заключаться в том, что третья сторона, которая является другой системой ИИ, вызывается и зацикливается на настройке, чтобы принять решение об урегулировании разногласия. Оригинальный ИИ запрограммирован так, чтобы подчиняться тому, что решит сторонний ИИ. Человек, уже вовлеченный в процесс, был заранее проинструктирован, что в случае возникновения такой ситуации он также должен подчиняться стороннему ИИ. Кроме того, вы, вероятно, можете ожидать, что человек в цикле может испытывать тревогу по поводу того, чтобы согласиться с тем, что решит сторонний ИИ, если это решение не согласуется с позицией человека в цикле.

Сторонний человек заменяет существующего человека, все происходит заново

В случае профессионального разногласия человек в цикле заменяется третьей стороной, которой является человек, и который отныне становится человеком в цикле. Человек, который был первоначальным человеком в цикле для задачи, больше не считается частью поставленной задачи. Это открытый аспект того, что в противном случае произойдет с теперь замененным человеком в цикле, но мы говорим, что они наверняка больше не играют никакой постоянной роли в рабочей задаче.

Сторонний ИИ заменяет существующий ИИ, все происходит заново

В случае профессионального несогласия ИИ заменяется сторонним ИИ, который отныне становится ИИ, используемым для выполнения текущей рабочей задачи. ИИ, который изначально использовался для этой задачи, больше не считается частью поставленной задачи. Это открытый аспект того, что в противном случае произойдет с замененным ИИ, но мы утверждаем, что ИИ больше не играет никакой постоянной роли в рабочей задаче.

Сторонний человек заменяет существующий ИИ, все происходит заново (теперь человек-человек)

В случае профессионального разногласия ИИ заменяется сторонним человеком, для которого этот человек теперь становится рассматриваемой совместной командой, которая будет использоваться для выполнения текущей рабочей задачи. ИИ, который изначально использовался для этой задачи, больше не считается частью поставленной задачи. Это открытый аспект того, что в противном случае произойдет с замененным ИИ, но мы утверждаем, что ИИ больше не играет никакой постоянной роли в рабочей задаче. Короче говоря, теперь это становится двусторонней задачей, выполняемой человеком-человеком.

Сторонний ИИ заменяет существующего человека, все происходит заново (теперь AI-to-AI)

В случае профессионального разногласия человек в цикле заменяется сторонним ИИ, и этот ИИ отныне становится заменой предыдущего человека в цикле. Человек, который был первоначальным человеком в цикле для задачи, больше не считается частью поставленной задачи. Это открытый аспект того, что в противном случае произойдет с теперь замененным человеком в цикле, но мы говорим, что они наверняка больше не играют никакой постоянной роли в рабочей задаче. Короче говоря, теперь это становится двухсторонним AI-to-AI для выполнения задачи.

Другие контрактные услуги

Можно придумать и другие варианты, чтобы справиться с профессиональными разногласиями, но здесь мы рассмотрели некоторые ключевые моменты.

Как нам решить, какой из этих подходов будет правильным для данной ситуации?

При таком выборе возникает множество вопросов. Есть технологические соображения. Есть деловые соображения. Есть юридические и этические соображения.

В какой-то степени именно поэтому этика ИИ и этический ИИ являются такой важной темой. Предписания этики ИИ заставляют нас сохранять бдительность. Технологи ИИ могут время от времени увлекаться технологиями, особенно оптимизацией высоких технологий. Они не обязательно учитывают более крупные социальные последствия. Иметь этическое мышление ИИ и делать это неотъемлемо от разработки и внедрения ИИ жизненно важно для создания надлежащего ИИ, включая (возможно, неожиданно или по иронии судьбы) оценку того, как этика ИИ принимается фирмами.

Помимо использования принципов этики ИИ в целом, возникает соответствующий вопрос о том, должны ли мы иметь законы, регулирующие различные виды использования ИИ. На федеральном уровне, уровне штатов и на местном уровне обсуждаются новые законы, касающиеся диапазона и характера разработки ИИ. Усилия по разработке и принятию таких законов носят постепенный характер. Этика ИИ служит, по крайней мере, временной мерой и почти наверняка в какой-то степени будет непосредственно включена в эти новые законы.

Имейте в виду, что некоторые категорически утверждают, что нам не нужны новые законы, касающиеся ИИ, и что наших существующих законов достаточно. На самом деле, они предупреждают, что, если мы примем некоторые из этих законов об ИИ, мы убьем золотого гуся, пресекая достижения в области ИИ, которые предлагают огромные социальные преимущества.

Могу поспорить, что на данном этапе этой серьезной дискуссии вам нужны наглядные примеры, которые могли бы продемонстрировать эту тему. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-то о разрешении разногласий между ИИ и людьми, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Беспилотные автомобили и разногласия между искусственным интеллектом и человеком

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я надеюсь, что это дает достаточное количество предостережений, чтобы обосновать то, что я собираюсь рассказать.

Для полностью автономных транспортных средств может не быть никаких шансов на профессиональные разногласия между человеком и ИИ из-за возможности того, что для начала нет никакого человека в цикле. Стремление многих современных производителей беспилотных автомобилей состоит в том, чтобы полностью исключить человека-водителя из процесса вождения. В автомобиле не будет даже доступных для человека органов управления. В этом случае водитель-человек, если он присутствует, не сможет участвовать в вождении, поскольку у него нет доступа к каким-либо элементам управления.

Для некоторых полностью автономных транспортных средств некоторые конструкции по-прежнему позволяют человеку быть в курсе, хотя человеку вообще не обязательно быть доступным или участвовать в процессе вождения. Таким образом, человек может участвовать в вождении, если человек этого желает. Однако ИИ ни в коем случае не зависит от человека в выполнении каких-либо задач по вождению.

В случае полуавтономных транспортных средств между водителем-человеком и ИИ существует непосредственная связь. Водитель-человек может полностью взять на себя управление вождением и, по сути, не дать ИИ участвовать в вождении. Если водитель-человек хочет вернуть ИИ роль водителя, он может это сделать, хотя иногда это вынуждает человека отказаться от управления автомобилем.

Другая форма полуавтономной работы предполагает совместную работу человека-водителя и ИИ. ИИ за рулем, а человек за рулем. Они едут вместе. ИИ может подчиняться человеку. Человек может положиться на ИИ.

В какой-то момент система управления ИИ и человек-водитель в цикле могут достичь точки «профессионального разногласия» в отношении поставленной задачи вождения.

Чтобы проиллюстрировать, как некоторые из вышеупомянутых правил разрешения профессиональных разногласий могут быть сложными для реализации, рассмотрим случай привлечения стороннего человека для участия в этом вопросе и предложения решения для решения нерешенной проблемы.

Предположим, автопроизводитель или компания, занимающаяся технологиями беспилотного вождения, предоставила удаленным операторам доступ к управлению транспортными средствами в своем автопарке. Человек-оператор сидит в каком-то отдаленном офисе или в похожей обстановке. С помощью компьютерной системы они могут просматривать сцену вождения, получая доступ к камерам и другим сенсорным устройствам, загруженным в беспилотный автомобиль. Для них это почти как играть в онлайн-видеоигру, хотя, конечно, реальные обстоятельства могут иметь ужасные последствия.

Система искусственного интеллекта и человек-водитель внутри автомобиля ведут полуавтономное транспортное средство по длинному шоссе. Внезапно ИИ хочет свернуть в канаву. Человек-водитель не хочет этого делать. Двое борются за управление автомобилем.

Как это будет решено?

Возможно, мы могли бы заранее установить, что человек всегда побеждает. Предположим, однако, что мы решили этого не делать.

Мы могли бы заранее установить, что ИИ всегда побеждает. Предположим, что мы решили этого не делать. В целом, мы не приняли ни одного из этих правил, за исключением того, что решили разрешить стороннему человеку вмешиваться и разрешать профессиональные разногласия любого существенного характера.

В этом случае ИИ и человек за рулем борются за управление автомобилем. Это, скажем, передается удаленному оператору-человеку (нашему стороннему человеку). Удаленный человек-оператор изучает, что происходит, и решает держаться подальше от канавы, по-видимому, предотвращая то, что пытался сделать ИИ. В то же время предположим, что удаленный человек-оператор выруливает на полосу встречного движения, чего, возможно, не хотели делать ни ИИ, ни человек-водитель внутри автомобиля.

Дело в том, что способ реализации этого правила заключается в том, что сторонний оператор-человек может полностью переопределить как ИИ, так и человека в цикле. Приведет ли это к хорошему результату, пока неизвестно.

Я буду использовать этот пример, чтобы выделить некоторые дополнительные идеи по этим вопросам.

Вы не можете нагло предположить, что только потому, что одно из этих правил введено в действие, результатом разрешенного разногласия обязательно является гарантированный хороший результат. Это может быть не так. Не существует какого-либо железного правила, которое всегда правильно, которое можно было бы выбрать.

Кроме того, некоторые из этих правил могут оказаться невыполнимыми.

Рассмотрим пример вмешательства удаленного человека-оператора, когда ИИ и человек-водитель ссорятся из-за управления автомобилем. Оператору на удалении может потребоваться много секунд, чтобы понять, что происходит. К тому времени автомобиль мог уже оказаться в кювете или иметь какой-либо другой неблагоприятный исход. Кроме того, предположим, что расположение транспортного средства исключает удаленный доступ, например, находится в каком-либо месте, где нет сетевого электронного соединения. Или, может быть, сетевые функции автомобиля не работают в этот конкретный момент.

Как вы видите, правило может выглядеть красиво на бумаге, хотя его практическое применение может быть очень трудным или весьма рискованным подходом. Посмотрите мой критический обзор удаленного оператора автономных транспортных средств и беспилотных автомобилей на ссылка здесь.

Я хотел бы кратко затронуть другую связанную с этим тему, которую я рассмотрю более подробно в следующем анализе.

Одним из растущих опасений по поводу автономных транспортных средств и полуавтономных автомобилей с автоматическим управлением является так называемый Синдром горячего картофеля.

Вот сделка.

Система вождения с искусственным интеллектом и человек управляют автомобилем совместно. Возникает ужасное затруднение. ИИ был запрограммирован на то, чтобы отказаться от вождения и передать управление человеку, когда наступит ужасный момент. Это кажется, возможно, «разумным», поскольку мы, кажется, ссылаемся на правило о том, что человек по умолчанию является «победителем» в любом потенциальном профессиональном разногласии.

Но выпадение ИИ может иметь более гнусные или коварные цели. Возможно, автопроизводитель или технологическая фирма, занимающаяся беспилотным вождением, не хочет, чтобы их ИИ считался «виновной стороной» в случае автомобильной аварии. Чтобы, казалось бы, не попасться вот так, ИИ резко передает управление человеку. Вуаля, человек теперь предположительно полностью отвечает за транспортное средство.

Суть в том, что предположим, что ИИ выполняет эту передачу обслуживания, скажем, за одну секунду до того, как произойдет сбой.

Будет ли у человека действительно свободное время, чтобы предотвратить катастрофу?

Скорее всего, нет.

Предположим, что ИИ выполняет передачу обслуживания за несколько миллисекунд или наносекунд до конца. Осмелюсь сказать, что у человека практически нет шансов сделать что-либо, чтобы предотвратить аварию.

С точки зрения автопроизводителя или фирмы по производству беспилотных автомобилей, они могут попытаться вести себя так, как будто их руки были чисты, когда происходит такая автомобильная авария. Машиной управлял человек. ИИ не управлял машиной. Казалось бы, единственный «логический» вывод состоит в том, что виноват должен быть человек, а ИИ должен быть совершенно невиновен.

Это черепок.

Я буду обсуждать это более подробно в следующей колонке.

Заключение

Будут профессиональные разногласия.

Трудно представить себе какую-либо сложную задачу, в которой две стороны совместно выполняют задачу и по которой никогда не возникнет никаких профессиональных разногласий. Это похоже на страну фантазий или, по крайней мере, на большую редкость.

Сегодня у нас есть много-много случаев профессиональных разногласий между людьми, решения которых ежедневно так или иначе решаются мирным и разумным путем. На самом деле, мы часто намеренно создаем ситуации, чтобы вызвать и выявить профессиональные разногласия. Вы можете возразить, что это демонстрирует знаменитую мудрость, что иногда две головы лучше, чем одна.

По мере того, как ИИ становится все более распространенным, у нас будет много двухсторонних исполнителей задач между ИИ и человеком или между человеком и ИИ. профессиональные разногласия что произойдет. Ленивый подход заключается в том, чтобы всегда полагаться на человека. Возможно, это не самый подходящий подход. ИИ может быть лучшим выбором. Или одно из других вышеупомянутых правил может быть более разумным подходом.

Существует часто повторяемая мудрая фраза о том, что мы все должны быть в состоянии согласиться или не согласиться, хотя, когда дело доходит до провода, иногда разногласие должно быть однозначно разрешено, иначе рассматриваемый вопрос приведет к неисчислимым бедствиям. Мы не можем просто позволить разногласию томиться на корню. Время может иметь решающее значение, и на карту могут быть поставлены жизни.

Существует четкое требование к некоторым разумным средствам разрешения разногласий, даже если это не обязательно приемлемо, в том числе, когда ИИ и человек в цикле не сходятся во взглядах или байт в байт.

Я надеюсь, что вы не будете не согласны с этим вполне приятным утверждением.

Источник: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- пилот-и-второй-пилот-не договорились-перед-взлетом-и-внезапно-решили-вырулить-обратно-к-терминалу-и-идти-своими путями/