Вот почему этика ИИ рекламирует, что ИИ, ориентированный на человека, имеет решающее значение для нашего симбиотического существования ИИ, такого как появление автономных беспилотных автомобилей.

Возможно, вы слышали или видели, что мир должен сосредоточиться на искусственном интеллекте, ориентированном на человека (HCAI).

Что это такое? Зачем нам это нужно? Это надолго или просто причуда? Как это работает? Множество других подобных вопросов обычно возникает у тех, кто не знаком с природой и сущностью ИИ, ориентированного на человека.

Давайте раскроем дело и установим историю прямо.

Кроме того, я приведу несколько полезных примеров того, насколько важен ИСМП. Эти примеры будут основаны на появлении автономных транспортных средств на основе ИИ, таких как новейшие и лучшие беспилотные автомобили, которые начинают размещаться на наших дорогах общего пользования.

Приготовьтесь к захватывающей и познавательной поездке.

Логичный способ начать эту дискуссию состоит в том, чтобы рассказать о том, что побудило все это движение, ориентированное на человека. Знание инь необходимо для понимания ян, так сказать. Пожалуйста, поймите, что я не буду упоминать ИИ, пока мы не установим, что значит быть ориентированным на человека. Выбросьте тему ИИ из головы на короткое время, и мы вернемся к теме ИИ, когда придет время.

Предполагаемая королевская битва происходила между тем, что некоторые называют технологичный перспектива против контраста ориентированный на человека точки зрения, когда речь идет о разработке новой техники.

Возможно, вы этого не знаете, но существует горячая вера в то, что мы слишком долго были заняты главным образом технологическими предписаниями. Всякий раз, когда разрабатывалась какая-то новая технологическая инновация, внимание обращалось на технические аспекты. Кто-то может возразить, что мы часто оказываемся вовлечены в беспорядочную технологическую гонку, чтобы вытолкнуть за дверь новейшие технологии, независимо от того, как они работают и как люди могут на них реагировать.

Есть много тропов Кремниевой долины, которые соответствуют этому мышлению. Терпите неудачу быстро, терпите неудачу часто — одна из типичных крылатых фраз. Другой подделывает его, пока вы не сделаете это. Грандиозная идея состоит в том, что вы просто придумываете любую хитроумную штуковину, которую можете, а затем начинаете продавать ее или заставлять людей ею пользоваться. Конечно, сумасшедшая комбинация может иметь острые края. И, да, люди могут запутаться в гаджете или даже пораниться, но в любом случае быть первым считается высокой похвалой технарей, и поэтому, черт побери, торпеды и полные пары вперед.

Основная опасность такого технологического подхода заключается в том, что человеческая сторона уравнения недооценивается или полностью игнорируется. Вместо того, чтобы бросать новые технологии в руки общества, все чаще звучат призывы сделать глубокий вдох и сначала убедиться, что это изобретение совместимо с людьми. Могут ли люди адекватно использовать устройство и делать это без вреда для себя? Легко ли использовать новомодный предмет или почти невозможно разобраться? И так далее.

Если мы действительно были якобы сосредоточены на технологиях, то пришло время перейти к новому способу мышления, а именно стать ориентированными на человека. Технология не может быть единственным определяющим фактором восхищения. Вместо того, чтобы технология была конечным результатом, вопрос о том, могут ли люди использовать эту технологию и получить от нее существенную выгоду, является истинным признаком похвального изобретения и модернизации. Надежда заключалась в том, что, сдвинув гравитацию в сторону человекоцентристских соображений, прозреет технологичный доминантный бесчеловечный самоанализ. Я более подробно обсуждал это изменение в мышлении в соответствии с моим анализом ИИ и так называемых запретное знаниеСм. ссылка здесь.

Конечно, в современном мире у нас есть некоторые технари, которые осознают и принимают точку зрения, ориентированную на человека, в то время как другие либо не знают об этом, либо считают, что она к ним неприменима. Таким образом, есть много и много технологических усилий, все еще мчащихся вперед, как бык в бутике изысканной посуды. Никаких сомнений насчет этого.

Досадная проблема заключается в том, что некоторые из усилий, ориентированных на технологии, тем не менее, будут успешными, поэтому трудно каким-то образом полностью стереть или опозорить направление, ориентированное на технологии. В результате некоторые остаются в лагере, ориентированном на человека, а другие остаются в лагере, ориентированном на технологии. Непреходящее утверждение состоит в том, что существует несколько способов содрать шкуру с кошки (упс, устаревшая поговорка, которую нужно удалить).

Другой поворот заключается в том, что лагерь, ориентированный на человека, твердо утверждает, что вы не жертвуете никакими техническими очками, принимая подход, ориентированный на человека. Для технарей, которые угрюмо воображают, что скатываются в грязную кроличью нору, становясь ориентированными на человека, возражение состоит в том, что это на самом деле повысит их шансы на создание удивительных технологий. Подумайте об этом простыми словами. Технологии, в которой отсутствуют ориентированные на человека соображения, вероятно, будет нелегко принять людей. Технологии, которые включают в себя идеи, ориентированные на человека, и формируются с их помощью, скорее всего, будут легко и охотно приняты людьми.

Вы можете съесть свой торт и съесть его.

Это подчеркивает, что, возможно, нет резкого разрыва между ориентированностью на технологии и ориентированностью на человека в том смысле, что есть место для сосуществования. Делайте и то, и другое одновременно, утверждают некоторые. Смешайте их так, чтобы они были равны и совместимы друг с другом. Скептики настаивают на том, что вы должны выбрать одно или другое. Либо вы сосредоточены на технологиях и отбрасываете ориентацию на человека, либо вы ориентированы на человека и забрасываете техноцентричность в собачью будку.

В любом случае, давайте примем за чистую монету, что мы должны серьезно учитывать аспекты, связанные с человеком, когда разрабатываются новые технологии. И мы должны быть осторожны, чтобы не недооценивать важность человеческих характеристик при разработке новых технологий. Удобный способ зафиксировать это — сказать, что мы должны быть ориентированы на человека. Идея центрирования одной вещи по сравнению с другой будет временами полезно заманчивой, а временами может прискорбно отвлекать.

Затем мы можем исследовать, как философия, ориентированная на человека, может быть реализована в реальных практических условиях реального мира.

Давайте предположим, что вы приступили к проектированию и разработке новой системы, которая будет включать в себя новейшие и лучшие технологии. Те, кто создает системы, в настоящее время, как правило, знают, что вам необходимо учитывать весь жизненный цикл процесса проектирования и разработки. Раньше много внимания уделялось только дизайну или только построению системы. В результате у нас было много систем, которые в конечном итоге вышли из строя из-за разрозненных и неадекватных передач на многочисленных взаимосвязанных этапах разработки системы. Вам крайне необходимо держать руку на пульсе на протяжении всего жизненного цикла системы.

Были созданы различные методологии жизненного цикла систем, чтобы направлять все системные усилия. Методологии похожи на шаблонные кулинарные книги, которые демонстрируют, какие общие аспекты необходимо выполнить на каждом этапе работы. Вы можете повторно применить их к своим конкретным системным усилиям, как и подобает тому, что вы собираете.

Теперь мы готовы соединить точки. Было предпринято много усилий для создания методологий жизненного цикла системы, которые особенно заинтересованы в важности соображений, ориентированных на человека. В целом это стало известно как дизайн, ориентированный на человека (HCD).

В недавнем документе Национального института стандартов и технологий (NIST) довольно удобное определение или объяснение человеко-ориентированного проектирования состояло из следующего отрывка: системы, поставив пользователей в центр процесса. Люди и их потребности управляют процессом, а не техноцентрично. HCD работает как часть других жизненных циклов разработки, включая водопадную, спиральную и гибкую модели. Дизайн, ориентированный на пользователя, HCD, совместный дизайн, совместный дизайн и дизайн с учетом ценности имеют ключевые сходства; на самом высоком уровне они стремятся предоставить людям конструкции, которые в конечном итоге принесут пользу их жизни. Кроме того, помещая людей в центр таких подходов, они, естественно, позволяют более глубоко сосредоточиться на более широких социальных соображениях, таких как справедливость, предвзятость, ценности и этика. HCD работает над созданием более удобных продуктов, отвечающих потребностям пользователей. Это, в свою очередь, снижает риск того, что получившаяся система будет недооценена, будет представлять риск для пользователей, причинит вред пользователю или выйдет из строя» (согласно Министерству торговли США, специальная публикация NIST 1270, март 2022 г., На пути к стандарту для выявления и управления предвзятостью в искусственном интеллекте авторами Ревой Шварц, Апостолом Васильевым, Кристен Грин, Лори Перин, Эндрю Бертом и Патриком Холлом).

В отчете NIST также уместно упоминается стандарт Международной организации по стандартизации (ISO), который охватывает дизайн, ориентированный на человека (в соответствии с ISO 9241-210: 2019), для которого эти важные характеристики считаются основополагающими:

  • Явное понимание пользователей, задач и сред (контекст использования)
  • Вовлечение пользователей в процесс проектирования и разработки
  • Управляемый дизайном и усовершенствованный оценкой, ориентированной на человека
  • Итеративный процесс, при котором прототип разрабатывается, тестируется и модифицируется.
  • Учет всего пользовательского опыта
  • Команды дизайнеров, которые включают междисциплинарные навыки и взгляды

Давайте сделаем краткий обзор того, что мы рассмотрели до сих пор.

Я надеюсь, что вы теперь осведомлены об этом продолжающемся движении к технологиям, ориентированным на человека, и что этому движению можно помочь с помощью методологий, специально разработанных для тех, кто действительно хочет создавать системы, ориентированные на человека.

Какое место во всем этом занимает ИИ?

Очень просто.

Те, кто проектирует и разрабатывает ИИ, часто попадают в давнюю ловушку чрезмерной озабоченности технологиями как таковыми. Вы можете легко указать на множество систем ИИ, которые явно были ориентированы на технологии, а не на человека (сейчас я приведу несколько примеров о беспилотных автомобилях).

Естественно предположить, что работа в области ИИ аксиоматически наполняется искушением быть ориентированным на технологии. Все спешат сломя голову, пытаясь превратить ИИ во все более продвинутые возможности. Некоторые считают, что, возможно, мы сможем перевести современный ИИ в режим, в котором он каким-то образом превратится в нечто вроде вычислительной когнитивной сверхновой и обретет разум (см. эта ссылка здесь).

Просто чтобы уточнить, у нас пока нет разумного ИИ. Мы не знаем, возможно ли создать разумный ИИ и возникнет ли чудесным образом разумный ИИ. Весь сегодняшний ИИ не является разумным и даже близко не разумным. Хочу внести ясность, поскольку есть тонны кричащих заголовков, которые предполагают, что у нас либо есть разумный ИИ, либо мы находимся на пороге его появления. Не так.

Возвращаясь к фокусу на дизайне, ориентированном на человека, суть в том, что имеет смысл попытаться заставить тех, кто создает ИИ, прийти к ориентированной на человека перспективе. Вместо близорукого искусственного интеллекта, ориентированного на технологии, было бы разумно и в целом выгодно стремиться к разработке искусственного интеллекта, ориентированного на человека. Это та же резкая идея, которая, как говорят, применима к любой технике.

С таким же успехом мы могли бы применить эти хваленые принципы, ориентированные на человека, к системам ИИ.

Это породило область, известную как ИИ, ориентированный на человека, часто сокращенно HCAI или иногда сокращенно до HAI. Вот краткий способ описать HCAI: «ИИ, ориентированный на человека (HCAI), — это новая область исследований, которая переосмысливает HCD в контексте ИИ, предоставляя метафоры проектирования ИИ, ориентированного на человека, и предлагаемые структуры управления для разработки надежных, безопасных и заслуживающих доверия Системы искусственного интеллекта» (согласно цитируемому ранее отчету NIST).

HCAI представляет собой смесь AI и HCD.

Это может показаться несколько загадочным и чрезмерно раздутым аббревиатурами. В расширенной версии можно было бы сказать, что ИИ, ориентированный на человека, представляет собой смесь ИИ и принципов дизайна, ориентированного на человека. Мы хотим отказаться от тенденции разрабатывать ИИ, основанный исключительно на принципах, ориентированных на технологии, и вместо этого поощрять предпочтение, ориентированное на человека.

Теперь вы знаете, что такое ИСМП. Нам нужно перейти к назревшему вопросу.

Можем ли мы убедить разработчиков ИИ и руководителей их компаний принять методы искусственного интеллекта, ориентированные на человека?

Может быть да, может быть нет.

Вспомните, как я ранее указывал, что не все обязательно соглашаются с ориентацией на человека в целом. То же самое можно сказать и об особом включении человеко-ориентированного в сферу ИИ. Некоторые не соблюдают, потому что не знают, что такое ИСМП. Другие бросают беглый взгляд на ИСМП и решают, что лучше продолжать делать то, что они уже делают. У вас также есть циники, которые пытаются очернить ИИ, ориентированный на человека, как один из тех обидчиво-чувственных подходов к хорошему самочувствию. Это часто привлекает тех, кто предпочитает полностью технологические биты и байты, которые предпочитают быть технически пропитанными и не иметь дело с тем, что они считают излишними вопросами.

Позвольте мне на мгновение объяснить, почему ИИ, ориентированный на человека (HCAI), набирает силу и становится жизненно важной частью любых демонстрационных усилий в области ИИ.

Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Мое обширное освещение этики ИИ и этического ИИ можно найти по адресу эта ссылка здесь и эта ссылка здесь, Просто назвать несколько.

Если вы, возможно, внимательно следили за тем, как я давал определение или объяснение человеко-ориентированного дизайна (HCD), вы могли внимательно заметить это предложение в выдержке из NIST: «Кроме того, помещая людей в центр таких подходов, они, естественно, поддаются более глубокому сосредоточению на более широких социальных соображениях, таких как справедливость, предвзятость, ценности и этика». Таким образом, в случае ИИ, ориентированного на человека, мы можем помочь внедрить этику ИИ и этический ИИ в процесс проектирования и разработки ИИ, серьезно приняв HCAI как методологию, которую стоит использовать для систем ИИ.

Вы можете достаточно убедительно утверждать, что большая часть AI для плохих это могло произойти непреднамеренно из-за того, что разработчики ИИ и руководители их компаний не использовали подход HCAI. Если бы они это сделали, шансы на то, что они тщательно продумали бы этические элементы ИИ и разработали ИИ, который соответствует этическим нормам, возрастают. Я мог бы добавить, что это разумно предлагает ценный двойник в том смысле, что, если ИИ, разработанный таким образом, кажется этически обоснованным, есть шансы, что фирма и ее разработчики ИИ избегут того, чтобы их ИИ начал действовать незаконно. Это довольно заметное преимущество, поскольку ИИ, который идет не так, как надо, может возбудить судебные иски против создателей и, возможно, даже повлечь за собой судебное преследование за преступные действия (см. мой анализ на ссылка здесь об уголовной ответственности за недобросовестного деятеля ИИ).

Давайте уделим немного времени краткому рассмотрению некоторых ключевых принципов этического ИИ, чтобы проиллюстрировать, что должно быть жизненно важным, ориентированным на человека или ИСКИ, для любого, кто занимается созданием, внедрением или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологии, процессов разработки и методов работы, применимых к возможностям ИИ, в том числе с использованием прозрачных и проверяемых методологий, источников данных, а также процедур проектирования и документации.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только кодеры» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Имейте в виду, что для разработки и использования ИИ требуется деревня. Для чего вся деревня должна быть в курсе об этике ИИ.

Чтобы дать вам представление о том, что может включать в себя современная методология искусственного интеллекта, ориентированного на человека, вот некоторые моменты, сделанные в отчете NIST:

  • Определить ключевые термины и понятия, связанные с системами ИИ, и объем их предполагаемого воздействия.
  • Решение проблемы использования конфиденциальных или иных потенциально опасных данных
  • Подробные стандарты для экспериментального дизайна, качества данных и обучения модели
  • Объясните, как следует отображать и измерять риски предвзятости и в соответствии с какими стандартами
  • Подробные процессы для тестирования и проверки модели
  • Подробно опишите процесс проверки юридическими службами или службами управления рисками
  • Установить периодичность и глубину текущего аудита и обзора
  • Общие требования к управлению изменениями
  • Детализируйте любые планы, связанные с реагированием на инциденты для таких
  • И т.д.

Существует широкий спектр доступных методологий, ориентированных на ИСМП.

Некоторые из них бесплатны и предоставляются на основе открытого исходного кода, в то время как другие такие методологии лицензируются или продаются тем, кто хочет использовать этот конкретный вариант. Как и в случае с коробкой конфет, вам нужно помнить о том, какую методологию ИСМП вы предпочитаете использовать и что именно она содержит. Некоторые, например, нацелены на определенные типы систем ИИ, например, только для экземпляров машинного обучения или глубокого обучения. Кроме того, есть методологии HCAI, которые хороши для систем искусственного интеллекта в реальном времени, в то время как другие в этом отношении слабы. Смотрите мое обсуждение на эта ссылка здесь.

Я призываю вас мудро выбрать подходящую методологию ИСМП и удостовериться, что вы разумно ее применяете. Не сваливайте методологию HCAI на ничего не подозревающих разработчиков ИИ. Не покупайте его только для того, чтобы просто отметить, что он у вас есть. Существует множество способов подорвать и отравить практически любую методологию HACI, если вы колеблетесь в ее принятии. Делайте правильные вещи, правильным способом.

Также будьте осторожны при параличе анализа при выборе методологии ИСМП. Некоторые группы искусственного интеллекта вступают в споры о том, какая методология HACI является «лучшей», и в конечном итоге тратят огромные усилия, борясь за процесс выбора. Тем временем лошадь ИИ выпускают из сарая. Плохой ход.

Могу поспорить, что на данном этапе обсуждения вам нужны примеры, которые могли бы продемонстрировать ценность внедрения ИИ, ориентированного на человека (HCAI).

Я рад, что вы спросили.

Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-либо об искусственном интеллекте, ориентированном на человека (HCAI), и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Самоуправляемые автомобили и ИИ, ориентированный на человека (HCAI)

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я верю, что это дает достаточный перечень предостережений, чтобы обосновать то, что я собираюсь рассказать.

Теперь мы готовы глубоко погрузиться в беспилотные автомобили и заметную ценность искусственного интеллекта Human-Center AI (HCAI).

Возьмем простой пример. Беспилотный автомобиль на основе искусственного интеллекта движется по улицам вашего района и, кажется, едет безопасно. Поначалу вы уделяли особое внимание каждому случаю, когда вам удавалось мельком увидеть беспилотный автомобиль. Автономное транспортное средство выделялось своей стойкой электронных датчиков, включая видеокамеры, радары, устройства LIDAR и тому подобное. После многих недель, когда беспилотный автомобиль колесит по вашему району, вы едва замечаете его. Насколько вам известно, это просто еще одна машина на и без того загруженных дорогах общего пользования.

Чтобы вы не думали, что познакомиться с самоуправляемыми автомобилями невозможно или неправдоподобно, я часто писал о том, как места, которые находятся в рамках испытаний беспилотных автомобилей, постепенно привыкли видеть обновленные автомобили. Многие местные жители в конце концов перешли от восторженного таращивания рта, разинув рот, к тому, чтобы теперь широко зевать от скуки, наблюдая за этими извилистыми беспилотными автомобилями.

Вероятно, главная причина, по которой сейчас они могут заметить автономные транспортные средства, заключается в факторе раздражения и раздражения. Стандартные системы вождения с искусственным интеллектом следят за тем, чтобы автомобили соблюдали все ограничения скорости и правила дорожного движения. Для беспокойных водителей-людей в их традиционных автомобилях, управляемых людьми, вы иногда раздражаетесь, когда застреваете за строго законопослушными самоуправляемыми автомобилями на основе искусственного интеллекта.

Это то, к чему нам всем, возможно, нужно привыкнуть, справедливо это или нет.

Вернемся к нашей сказке.

Оказывается, начинает возникать несколько неуместных опасений по поводу безобидных и общепризнанных беспилотных автомобилей на основе искусственного интеллекта, а именно:

1) Трудности с посадкой и высадкой (PUDO)

2) Недостаточный статус бортового беспилотного автомобиля для пассажиров.

3) Опасная путаница для пешеходов в отношении намерений системы вождения AI.

4) Беспокойство по поводу вторжения в частную жизнь из-за беспилотных автомобилей.

5) Этические опасения по поводу вождения ИИ в соответствии с печально известной проблемой тележки.

Мы внимательно рассмотрим каждый из этих факторов. Каждый из них представляет собой одну из самых сложных борьбой за постоянное расширение испытаний беспилотных автомобилей. Чтобы уточнить, самая большая проблема состоит в том, чтобы обеспечить безопасное перемещение беспилотного автомобиля из точки А в точку Б. Эти вышеупомянутые дополнительные проблемы являются дополнением к этому основному или фундаментальному набору проблем.

Как станет очевидным, пять заявленных вопросов неразрывно связаны с ключевым понятием дизайна, ориентированного на человека. В этом смысле они демонстрируют важность внимания к ИИ, ориентированному на человека (HCAI).

# 1: Трудности с посадкой и высадкой (PUDO)

Когда вы пользуетесь услугами по совместному использованию людей, единственное, что, как вы предполагаете, будет происходить правильно, — это то, что вас подберут для поездки в удобном месте, а также высадят в подходящем месте после завершения поездки (это известно удобная аббревиатура PUDO). Это может быть намного сложнее, чем кажется. Если вы стоите у красного бордюра, должен ли водитель проехать вперед и остановиться, чтобы вас подобрать? Имейте в виду, что закон обычно гласит, что нельзя останавливаться на красный бордюр.

Иногда «удобное» место встречи не обязательно удобно для водителя транспортного средства. Я уверен, что вы иногда переходили улицу, чтобы облегчить встречу с водителем. Может возникнуть своего рода танец, когда вы пытаетесь приблизиться к машине, а водитель пытается приблизиться к тому месту, где вы находитесь.

Для многих фирм, разрабатывающих системы вождения с искусственным интеллектом, вопрос о подходящей посадке и высадке был отнесен к относительно низкому приоритету в списке дел.

Разработчики ИИ обычно считали, что человек-пассажир всегда должен пробираться к беспилотному автомобилю. Ответственность за это лежит на пассажире. Системе вождения AI не обязательно иметь дело с PUDO. Просто подойдите достаточно близко и все. С этой точки зрения, места посадки и высадки не имеют ничего общего с такими вещами, как ненастная погода (когда идет дождь, PUDO часто корректируется соответствующим образом) или дорожная ситуация (возможно, мимо проносятся другие машины и потенциальное пассажир должен броситься навстречу опасности) и так далее.

Люди-водители обычно не имеют такого мышления. Они понимают, что не получат денежных чаевых или могут получить нечестный рейтинг, если не сделают что-нибудь серьезно, чтобы у пассажира был относительно удобный PUDO. Попытка добраться до полезного места может быть важным навыком вождения. Это также способствует безопасности в том смысле, что если пассажира с тревогой подталкивают к тому, чтобы отчаянно добраться до беспилотного автомобиля, некоторые люди делают неразумный выбор и могут пострадать от всех видов мешающего движения.

В случае с беспилотными автомобилями с искусственным интеллектом и системами вождения с искусственным интеллектом, которые не выполняют надежную работу PUDO, можно сказать, что это демонстрирует недостаток внимания разработчиков искусственного интеллекта к человеку. Они, казалось бы, проигнорировали аспекты пикапа и высадки. Это тип мышления, который может сформировать традиционная точка зрения, ориентированная на технологии. Заставить людей идти к машине, а не машину к людям.

Проблема решена, технарь может радостно указать, а затем умыть руки.

Справедливости ради, это не единственная причина отсутствия пылкой фокусировки на PUDO. Энергия разработчиков искусственного интеллекта, создающих системы вождения с искусственным интеллектом, была направлена ​​на то, чтобы убедиться, что беспилотный автомобиль может безопасно перемещаться из точки А в точку Б. Без этой возможности все остальное не имеет большого значения. При этом любой, кто получает травму или явно обеспокоен из-за паршивого PUDO начинающего самостоятельного вождения автомобиля, вероятно, будет издавать широко разрекламированные шумы, и реакция общества может быть крайне неблагоприятной. Несомненно, найдутся специалисты по искусственному интеллекту, которые будут жаловаться на то, что любая подобная негативная реакция упускает из виду важный подвиг безопасного движения ИИ из точки А в точку Б. Это будет шум, что публика позволяет хвосту вилять собакой. Возможно, это так, но реакция общества может принести удачу или полную гибель расцветающим беспилотным автомобилям.

Мое подробное освещение этих тонких, но в конечном счете решающих вопросов, связанных с автономными транспортными средствами, см. в моем обсуждении на ссылка здесь в котором представлены основные моменты исследования, которое я написал в соавторстве с преподавателем Гарварда.

# 2: Недостаточный статус беспилотного автомобиля для пассажиров

Человек-водитель может быть болтливым котом. Я имею в виду, что некоторые водители райдшеринга постоянно болтают на протяжении всей поездки. Не всем пассажирам это нравится. Кто-то хочет тишины и покоя. Другим нравится немного пошутить.

Одним из аспектов человека-водителя является то, что вы почти наверняка можете задавать водителю вопросы о предпринимаемых действиях за рулем. Почему водитель так быстро повернул направо? Почему водитель не едет быстрее? Вы поняли идею.

Некоторые разработчики ИИ предполагали, что пассажир беспилотного автомобиля просто сядет в автономный автомобиль и будет вести себя тихо, как мышь. Нет необходимости, чтобы ИИ взаимодействовал с пассажиром. Пассажиры не более чем кусок глины. Они садятся в машину и их везут к месту назначения. Конец истории.

К удивлению некоторых автопроизводителей и фирм, занимающихся технологиями беспилотного вождения, они обнаружили, что пассажиры хотят знать, что происходит. Минимальный подход предполагает наличие светодиодного экрана, который отображает маршрут беспилотного автомобиля. Это, однако, не особенно помогает в решении таких аспектов, как, почему был сделан быстрый поворот или почему машина замедляется. Конечно, электронные сообщения могут отображаться, но взаимодействие между ИИ и пассажирами практически отсутствует.

Опять же, вы можете истолковать это как проблему разработки ИИ, ориентированную на человека. Предположение, что пассажиры подобны чемодану или коробке с доставкой, является точкой зрения, ориентированной на технологии. Люди есть люди. Если вы собираетесь перевозить людей, вы должны сделать так, чтобы они чувствовали себя комфортно и отвечали на их запросы. Быстрое решение для некоторых операций с беспилотными автомобилями — иметь встроенную голосовую связь с агентом-человеком в удаленном месте, который контролирует автомобили парка. Это имеет множество недостатков, как я подробно проанализировал в ссылка здесь.

# 3: Опасная путаница для пешеходов в отношении намерений системы вождения AI

Представьте, что вы небрежно идете по тротуару и хотите перейти улицу. Вы замечаете, что по улице навстречу вам едет машина. Обычная вещь, которую вы бы сделали, это посмотрели бы на водителя-человека. Видит ли меня водитель? Водитель смотрит в сторону? Они смотрят видео с котиками и не обращают внимания на проезжую часть?

Проблема с беспилотными автомобилями в том, что в них нет водителя-человека. Ну, я думаю, вы могли бы сказать, что это плюс, что позволяет нам покончить с вождением в нетрезвом виде и другими ошибочными действиями человека за рулем. Но когда дело доходит до выяснения того, что собирается делать машина, вы обычно пытаетесь увидеть, что делает водитель (по его голове, глазам, позе в целом и т. д.).

Когда на водительском сиденье нет водителя, как вы узнаете, что собирается делать машина? У вас отсутствуют обычные подсказки. Некоторые автопроизводители и компании, занимающиеся технологиями беспилотного вождения, не учитывали эту проблему при проектировании. По их мнению, система вождения с искусственным интеллектом всегда будет безопасно и законно управлять автомобилем. Что еще нужно сделать?

Вы можете возразить, что это еще один пример взгляда на мир, ориентированного на технологии, а не на человека. Если вы считаете, что люди всегда будут просто давать беспилотным автомобилям право проезда, то, возможно, не имеет значения, что нужны сигналы направления действия человека-водителя. С другой стороны, в реальном мире что-то должно быть предусмотрено.

Как я рассмотрел в ссылка здесь, опробуются многочисленные предложения, такие как размещение специальных лампочек на капоте беспилотных автомобилей, которые загораются и как бы указывают направление, куда движется автономный автомобиль. Другая идея заключается в том, что специализированные устройства подтвердят пешеходу, что его видит система вождения с искусственным интеллектом. Исследуются всевозможные разумные варианты, в том числе порой причудливые подходы.

# 4: Беспокойство по поводу вторжения в личную жизнь из-за беспилотных автомобилей

Я неоднократно предупреждал об огромном потенциале вторжения в частную жизнь из-за появления беспилотных автомобилей. В настоящее время никто не уделяет этому вопросу большого внимания, потому что он еще не встал как осознанная проблема. Уверяю вас, что в конечном итоге это станет огромной проблемой, которую я назвал поистине «блуждающим глазом» беспилотных автомобилей (см. ссылка здесь).

Ваша первая мысль может заключаться в том, что речь идет исключительно о конфиденциальности пассажиров. ИИ может следить за тем, что делают водители в беспилотном автомобиле. Конечно, это определенное беспокойство. Но я бы сказал, что это меркнет по сравнению с менее очевидным беспокойством, которое имеет еще большие последствия.

Проще говоря, датчики беспилотного автомобиля собирают все виды данных, когда автономные транспортные средства перемещаются по нашим дорогам общего пользования. Он фиксирует то, что происходит на лужайках перед нашими домами. Он фиксирует, что люди делают, идя с места на место. Он показывает, когда вы вошли в заведение и когда вы вышли из него. Эти данные можно легко загрузить в облако оператора автопарка. Затем оператор автопарка может соединить эти данные и, по сути, получить подробную информацию о нашей повседневной жизни, которая происходит на открытом воздухе и в нашем сообществе.

Похоже, нас сейчас не волнует возможность вторжения в частную жизнь, потому что в относительно небольшом количестве регионов тестируются лишь несколько беспилотных автомобилей. Когда-нибудь у нас будут сотни тысяч или миллионы беспилотных автомобилей, которые будут колесить по всем нашим крупным городам и поселкам. Наша повседневная жизнь на открытом воздухе будет записываться круглосуточно, 24 дней в неделю, и нас можно будет отслеживать соответствующим образом.

Разработчик искусственного интеллекта, ориентированный на технологии, скорее всего, преуменьшит это. Они предположили бы, что все, что они делают, — это внедрение технологии ИИ. Кто-то другой должен беспокоиться о том, как будет использоваться технология.

Напротив, человекоцентристская перспектива уже ломает руки о том, как будет решаться эта гигантская бомба замедленного действия, тикающая в отношении конфиденциальности. Лучше раньше, чем позже. Это еще одна веская причина, по которой человеко-ориентированный ИИ (HCAI) должен быть в комплексе.

# 5: Этические опасения по поводу вождения ИИ в связи с печально известной проблемой трамвая

Этот последний пункт немного сложен. Я сократлю его и порекомендую вам ознакомиться с моим длинным анализом на ссылка здесь. Короче говоря, когда вы ведете машину или едете просто в качестве пассажира в машине, вы всегда находитесь в опасности того, что происходит с машиной. Автомобиль может быть сбит другим автомобилем. Машина может врезаться в фонарный столб. Все виды плохих вещей могут произойти.

Как водитель-человек решает, какие действия вождения предпринять?

Например, моим любимым примером был случай, описанный в новостях. Водитель-человек законно выезжал на перекресток, когда другая машина проехала на красный свет и рискованно приближалась к машине, разрешенной законом. Водитель сообщил журналистам, что ему пришлось принять непростое решение. Он мог бы продолжать движение и, вероятно, был бы протаранен вторгшейся машиной, возможно, погибнув в процессе или, конечно, получив тяжелые ранения. Или он мог увести машину от ожидаемого столкновения, но поблизости были пешеходы. Шансы были высоки, что он мог ударить или убить кого-то из пешеходов. Тем не менее, это, вероятно, спасло бы ему жизнь.

Что бы вы сделали?

Дело в том, что мы постоянно сталкиваемся с этими движущими дилеммами. Мы особо не думаем о них, пока дела не пойдут плохо. Уверяю вас, что каждый водитель во все времена мысленно запутался в том, чтобы решить, какие действия при вождении предпринять. От этого зависит их жизнь. От этого зависят жизни пассажиров их автомобиля. От этого зависят жизни других водителей и пассажиров близлежащих автомобилей. Пешеходы, велосипедисты и другие люди тоже зависят от него.

Я поднимаю эту тему из-за простого, но чрезвычайно сложного вопроса.

Что должен делать ИИ, когда ему приходится принимать жизненно важные решения?

Если бы вы были пассажиром беспилотного автомобиля, который находился посреди перекрестка, а автомобиль, управляемый человеком, проехал на красный свет, что вы хотите, чтобы система вождения с искусственным интеллектом делала? Должен ли ИИ попытаться избежать удара и, возможно, косить группу пешеходов? Или ИИ не должен предпринимать никаких специальных действий и просто позволить автономному транспортному средству протаранить? Такого рода этические дилеммы часто изображаются в контексте известного мысленного эксперимента, известного как «проблема вагонетки» (см. ссылка здесь).

В настоящее время немногие относятся к проблеме трамвая с трезвой серьезностью. По большому счету, большинство систем вождения с искусственным интеллектом еще не пытаются оценивать действия по уклонению от вождения. Даже если ИИ это сделает, остается открытый и мучительный вопрос о том, как ИИ должен быть запрограммирован для принятия этих сложных этических решений.

Технически ориентированная точка зрения, как правило, говорит, что не стоит беспокоиться об этом, пока это не станет общественной проблемой. Просто продолжайте штамповать массу кода ИИ и посмотрите, что произойдет в будущем.

Ориентированная на человека точка зрения, скорее всего, будет утверждать, что мы должны взять верх над этим вопросом. Это не тот вопрос, который может решать каждый автопроизводитель и технологическая фирма в одиночку. Необходим более широкий общественный фокус для всесторонних средств выяснения этого.

Заключение

Твердые разработчики ИИ часто скептически относятся к тому, что они считают причудой или ерундой. У меня было много технических специалистов по ИИ, которые задавали мне строго резкий и прямолинейный вопрос надменным и сомнительным тоном о растущем интересе к ИИ, ориентированному на человека (HCAI).

Они спрашивают это: Где говядина в ИСМП?

Мой ответ таков: мясо, картошка и десерт — все это можно найти в осознании того, что ориентированный на человека подход к ИИ даст нам повышенные шансы на успех ИИ и станет повсеместным вкладом в общество в целом. Те, кто предпочитает вместо этого опираться на технологически ориентированный подход и погрязнуть в нем, скорее всего, обнаружат, что созданный ими ИИ совершенно проблематичен, и общество будет очень возмущено этим. Головы полетят. ИИ может быть отвергнут как технологическое чудо и стать злодейским изгоем.

Я громко голосую за какую-то ориентированную на человека мысль, чтобы быть ориентированной на человека, когда дело доходит до ИИ.

Источник: https://www.forbes.com/sites/lanceeliot/2022/04/01/heres-why-ai-ethics-is-touting-that-human-centered-ai-is-crucial-to-our- ай-симбиотическое-существование-такое-как-появление-автономных-беспилотных-автомобилей/