Специалисты по этике ИИ скептически относятся к установлению так называемых «красных флагов» законов об ИИ для выявления предвзятых алгоритмов в автономных системах ИИ

Давайте поговорим о законах о красных флагах.

Вы, несомненно, знаете, что в последнее время в новостях широко освещается понятие Законов о красных флагах. Заголовков, освещающих эту тему, предостаточно. Страсти и страстные дебаты по таким вопросам находятся в центре внимания как общественная проблема и влекут за собой современные и быстро появляющиеся законы об оружии красного флага.

Однако я осмелюсь сказать, что вы, возможно, не знакомы с другими законами о красных флагах, принятыми в конце 1800-х годов и касающимися моторизованных транспортных средств и предшественников сегодняшних повседневных современных автомобилей. Да, верно, законы о красных флагах уходят в прошлое, хотя и охватывают другие темы по сравнению с сегодняшним современным направлением. Их обычно называют Законами о дорожном движении с красными флагами.

Эти уже столетние и полностью несуществующие законы требовали, чтобы любая моторизованная повозка или двигатель, приводимый в движение паром, в то время должны были иметь взрослого впереди транспортного средства и нести красный флаг в целях предупреждения. Идея заключалась в том, что домашний скот может быть встревожен этими шумными и сварливыми приспособлениями, которые медленно и неравномерно мчатся по грунтовым или слабо мощеным дорогам, поэтому, если кто-то идет впереди устройства, энергично размахивая красным флагом, можно было бы надеяться избежать бедствия. Если вам интересно, железные дороги и поезда считались исключенными из тех же законов, поскольку они были транспортными средствами, неразрывно связанными с рельсами, и их действия регулировались другими законами.

Представьте себе, что сегодня вам необходимо размахивать красными флажками в качестве требования для каждого автомобиля на наших дорогах общего пользования.

Например, обычный автомобилист, едущий по соседней улице, должен убедиться, что взрослый, размахивающий красным флагом, присутствует и проходит перед движущейся машиной. Это должно происходить для каждого транспортного средства, проезжающего по вашей улице. Может быть, люди станут спекулянтами, которые нанимают проезжающих мимо водителей, у которых в противном случае не было друга или родственника, который мог бы идти впереди них и делать оговоренное махание рукой.

В настоящее время мы склонны ассоциировать размахивание красными флагами, связанными с автомагистралями, со строительными площадками. Когда вы приблизитесь к раскопанной дороге, рабочие будут держать красный флаг, чтобы привлечь ваше внимание. Это говорит вам замедлиться и быть начеку. На вашем пути может оказаться бульдозер. Впереди может быть гигантская дыра, и вам нужно будет осторожно обойти ее.

Но давайте вернемся к использованию красных флажков в 1800-х годах.

Хотите верьте, хотите нет, но красный флаг должен был быть как минимум на одну восьмую мили впереди приближающейся моторизованной машины. Кажется, это довольно большое расстояние. Однако можно предположить, что в те дни это имело большой смысл. Поразительного шума двигателя и, возможно, одного вида машины может быть достаточно, чтобы нервировать животных. Некоторые из законов о красных флагах той эпохи также требовали, чтобы в ночное время в воздухе поднимался яркий красный свет, чтобы визуально видимое красное предупредительное предупреждение можно было увидеть с затемненного расстояния.

В целом, я думаю, будет справедливо утверждать, что мы, как общество, склонны ассоциировать красный флаг как своего рода сигнал или знак того, что что-то потенциально не так или, по крайней мере, требует нашего набожного внимания.

Приготовьтесь к небольшому повороту этого феномена красных флажков.

Существует мнение, что мы должны требовать положений о красных флагах, когда речь идет об искусственном интеллекте (ИИ).

Это немного поразительно и удивительная концепция, которая заставляет многих чесать головы. Вы можете быть озадачены тем, как и почему должны быть так называемые Законы об искусственном интеллекте с красными флагами. Обратите внимание, что я помечаю это как Законы Красного Флага ИИ, чтобы отличить этот вопрос от Законов о дорожном движении Красного Флага (например, законов конца 1800-х годов), а также чтобы отделить их от других более распространенных сегодня Законов Красного Флага об оружии.

Нужны ли нам на самом деле «красные флаги» законов об ИИ, которые четко и исключительно ориентированы на вопросы ИИ?

Те, кто поддерживает предложенный подход, будут настаивать на том, что нам абсолютно необходимы правовые положения, которые помогли бы пресечь ИИ, который содержит неправомерные предубеждения и действует дискриминационным образом. Прямо сейчас создание и развертывание ИИ сродни ситуации на Диком Западе. Усилия по обузданию плохого ИИ в настоящее время зависят от разработки и принятия руководящих принципов этики ИИ. Мой постоянный и обширный обзор этики ИИ и этического ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Законы, которые ограничивают плохой ИИ, медленно разрабатываются и вводятся в действие, см. мой репортаж на ссылка здесь. Некоторые опасаются, что законодатели действуют недостаточно быстро. Кажется, что шлюзы, позволяющие поддерживать предвзятый ИИ в мире, сейчас в значительной степени широко открыты. Заламывание рук говорит о том, что к тому времени, когда новые законы попадут в книги, злой джин уже будет выпущен из бутылки.

Не так быстро, идут контраргументы. Беспокоит то, что если законы будут приняты слишком быстро, мы, так сказать, убьем золотого гуся, в результате чего усилия по ИИ иссякнут, и мы не получим социальных выгод от новых систем ИИ. Разработчики ИИ и фирмы, желающие использовать ИИ, могут испугаться, если на федеральном, государственном и местном уровнях внезапно вступит в силу целый ряд новых законов, регулирующих ИИ, не говоря уже о международных законах, связанных с ИИ, которые тоже продвигаются вперед.

В это грязное дело вступает призыв к законам об искусственном интеллекте Red Flag.

Прежде чем перейти к еще большему количеству мяса и картошки о диких и необъяснимых соображениях, лежащих в основе предполагаемого Закона об искусственном интеллекте «Красный флаг», давайте установим некоторые дополнительные основы по очень важным темам. Нам нужно кратко окунуться в этику ИИ и особенно в появление машинного обучения (МО) и глубокого обучения (ГО).

Возможно, вы смутно осознаете, что один из самых громких голосов в наши дни в области ИИ и даже за его пределами состоит в том, чтобы требовать большего подобия этического ИИ. Давайте посмотрим, что означает обращение к этике ИИ и этичному ИИ. Кроме того, мы рассмотрим, что я имею в виду, когда говорю о машинном обучении и глубоком обучении.

Один конкретный сегмент или часть этики ИИ, которая привлекает большое внимание средств массовой информации, состоит из ИИ, который демонстрирует неблагоприятные предубеждения и несправедливость. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в неэтичную пропасть (см. мой анализ таких возможностей на ссылка здесь).

Через мгновение я поделюсь с вами некоторыми всеобъемлющими принципами, лежащими в основе этики ИИ. Есть много таких списков, плавающих то здесь, то там. Можно сказать, что единого списка универсальной привлекательности и согласованности пока не существует. Это неприятная новость. Хорошая новость заключается в том, что, по крайней мере, существуют легкодоступные списки этики ИИ, и они, как правило, очень похожи. Все это говорит о том, что с помощью своего рода обоснованной конвергенции мы находим путь к общей общности того, из чего состоит этика ИИ.

Во-первых, давайте кратко рассмотрим некоторые из общих этических принципов ИИ, чтобы проиллюстрировать, что должно быть жизненно важным соображением для любого, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологий, процессов разработки и методов работы, применимых к возможностям ИИ, включая прозрачные и проверяемые методологии, источники данных, процедуры проектирования и документацию.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как указывалось ранее, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна разбираться в принципах этики ИИ и соблюдать их.

Давайте также убедимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели дико рассуждать о чувствующий AI, эта дискуссия может пойти в совершенно ином направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхразумный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Давайте будем более приземленными и рассмотрим современный вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Давайте вернемся к нашему вниманию к законам Red Flag AI.

Основная концепция заключается в том, что люди смогут поднять красный флаг всякий раз, когда они считают, что система ИИ работает чрезмерно предвзято или дискриминационно. Вы бы не подняли физический флаг как таковой, а вместо этого просто использовали бы некоторые электронные средства, чтобы сообщить о своих опасениях. Часть схемы или подхода, вызывающая тревогу, является скорее метафорой, чем физическим воплощением.

Представьте, что вы подаете заявку на ипотечный кредит. Вы решили использовать услугу онлайн-банкинга, чтобы подать заявку на кредит. После ввода некоторых личных данных вы на мгновение ждете, пока система ИИ, которая используется, решит, достойны ли вы кредита или нет. ИИ сообщает вам, что вам отказали в кредите. После запроса объяснения того, почему вам отказали, текстовое повествование, кажется, предполагает, что ИИ использовал неоправданно предвзятые факторы как часть алгоритма принятия решения.

Время поднять красный флаг по поводу ИИ.

Где именно будет развеваться этот красный флаг?

Это вопрос на миллион долларов.

Одна точка зрения заключается в том, что нам следует создать общенациональную базу данных, которая позволит людям отмечать свои красные флажки, связанные с ИИ. Некоторые говорят, что это должно регулироваться федеральным правительством. Федеральные агентства будут нести ответственность за изучение тревожных сигналов и оказание помощи широкой публике в отношении достоверности и борьбы с предположительно «плохим ИИ», который вызвал тревожные сообщения о подсчетах.

Национальный закон об искусственном интеллекте Red Flag, по-видимому, будет принят Конгрессом. В законе будет указано, что такое красный флаг, связанный с ИИ. В законе будет описано, как поднимаются эти ворчащие красные флаги ИИ. И так далее. Также может случиться так, что отдельные штаты также решат разработать свои собственные законы Red Flag AI. Возможно, они делают это вместо национальной инициативы или делают это, чтобы подчеркнуть детали, особенно привлекательные для их конкретного штата.

Критики федеральной или любой поддерживаемой правительством программы искусственного интеллекта Red Flag утверждают, что это то, что может сделать частный бизнес, и нам не нужен Большой Брат, чтобы выйти на первый план. Отрасль может создать онлайн-репозиторий, в котором люди могут регистрировать тревожные сигналы о системах ИИ. Действия отрасли по самоконтролю в достаточной степени позволили бы решить эти проблемы.

Сомнение по поводу предполагаемого отраслевого подхода заключается в том, что он кажется попахивающим кумовством. Захотят ли фирмы соблюдать какую-то частную базу данных искусственного интеллекта Red Flag? Многие фирмы потенциально проигнорируют отмеченные красные флажки в отношении их ИИ. Не было бы острых зубов, чтобы заставить компании иметь дело с введенными красными флажками.

Эй, сторонники подхода частного сектора возмущаются, это было бы похоже на национальную службу, подобную Yelp. Потребители могли бы взглянуть на тревожные сигналы и решить для себя, хотят ли они вести бизнес с компаниями, у которых накопилось множество тревожных сигналов, ориентированных на ИИ. Логика гласит, что банк, который получает тонны красных флажков по поводу своего ИИ, должен обратить внимание и обновить свои системы ИИ, иначе потребители будут избегать фирмы, как чумы.

Независимо от того, применяется ли весь этот подход правительством или промышленностью, это лишь верхушка айсберга в сложных вопросах, стоящих перед предлагаемым постулатом законов об искусственном интеллекте Red Flag.

Поставьте себя на место фирмы, разработавшей или использующей ИИ. Могло случиться так, что потребители подняли бы тревожные флажки, даже если для этого не было никаких реальных оснований. Если бы люди могли свободно размещать красный флаг в отношении ИИ, у них могло бы возникнуть искушение сделать это из прихоти или, возможно, из мести фирме, которая в противном случае не сделала ничего плохого по отношению к потребителю.

Короче говоря, может быть много ложноположительных красных флажков об ИИ.

Еще одним соображением является огромный размер или величина возникающих красных флажков. Легко могут быть подняты миллионы и миллионы красных флажков. Кто будет следить за всеми этими красными флагами? Сколько будет стоить это сделать? Кто будет платить за последующие усилия по тревожному сигналу? И т.п.

Если вы скажете, что любой, кто регистрируется или сообщает о подозрительных фактах об ИИ, должен платить взнос, вы попадаете в темную и коварную сферу. Обеспокоенность будет заключаться в том, что только богатые смогут позволить себе поднимать красные флаги. Это, в свою очередь, означает, что бедняки не смогут в равной степени участвовать в тревожных мероприятиях и, по сути, не имеют места для предупреждения о неблагоприятном ИИ.

Просто еще один дополнительный поворот на данный момент, а именно то, что такого рода тревожные законы или руководящие принципы в отношении ИИ, похоже, действуют постфактум, а не служат предупреждением заранее.

Возвращаясь к Правилам дорожного движения с красными флагами, акцент в использовании красного флага был сделан на то, чтобы предотвратить бедствие с самого начала. Предполагалось, что махающий красным флагом будет далеко впереди приближающейся машины. Находясь впереди транспортного средства, скот будет предупрежден, а те, кто охраняет скот, будут знать, что им следует принять меры предосторожности из-за скорого появления источника беспокойства.

Если люди могут только поднять красный флаг по поводу ИИ, который, по-видимому, уже нанес ущерб их правам или подорвал их, значит, пресловутая лошадь уже вышла из сарая. Все, чего это, казалось бы, должно достичь, — это то, что, надеюсь, другие люди, которые появятся, теперь будут знать, что с осторожностью относятся к этой системе ИИ. Между тем, человек, которого якобы обидели, уже пострадал.

Некоторые предполагают, что, возможно, мы могли бы позволить людям поднимать тревожные флажки об ИИ, что они подозреваемый могут быть предвзятыми, даже если они не использовали ИИ и не подвергались непосредственному влиянию ИИ. Таким образом, красный флаг поднимается до того, как ущерб будет нанесен.

Ого, — возразил он, — вы действительно превратите тревожные сигналы, связанные с управлением ИИ, в совершенно неуправляемое и хаотичное дело. Если кто-то по какой-либо причине может поднять красный флаг в отношении системы ИИ, несмотря на то, что он вообще ничего не сделал с этим ИИ, вас завалят красными флагами. Хуже того, вы не сможете отличить зерна от плевел. Весь подход с красным флагом рухнет под собственным весом, сведя на нет всю прелесть идеи, позволив обломкам и сброду потопить весь корабль.

Головокружение и смятение.

Могу поспорить, что на данном этапе этой серьезной дискуссии вам нужны наглядные примеры, которые могли бы продемонстрировать эту тему. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе искусственного интеллекта что-нибудь о законах Red Flag AI, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Беспилотные автомобили и красный флаг законов об искусственном интеллекте

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я надеюсь, что это дает достаточное количество предостережений, чтобы обосновать то, что я собираюсь рассказать.

Давайте набросаем сценарий, который может использовать Закон об искусственном интеллекте Red Flag.

Вы садитесь в беспилотный автомобиль на основе искусственного интеллекта и хотите, чтобы автономный автомобиль отвез вас в местный продуктовый магазин. Во время относительно короткого путешествия ИИ выбирает маршрут, который вам кажется несколько неправильным. Вместо того, чтобы идти самым прямым путем, ИИ перемещается по отдаленным улицам, что приводит к тому, что время в пути становится больше, чем обычно.

Что происходит?

Предполагая, что вы платите за использование беспилотного автомобиля, вы можете заподозрить, что ИИ был запрограммирован на то, чтобы проехать более длинный маршрут, чтобы попытаться повысить плату за проезд или стоимость поездки. Любой, кто когда-либо садился в обычное такси, управляемое человеком, знает об обмане, который может иметь место, чтобы получить больше денег на счетчике. Конечно, когда люди используют GPS на своих смартфонах во время поездки в такси или аналогичном автомобиле, вы можете легко поймать человека-водителя, который, кажется, скрытно выбирает излишне длинные маршруты.

Оказывается, у вас есть еще одна забота о выборе маршрута, что-то, что вас действительно гложет.

Предположим, маршрутизация была сделана, чтобы избежать определенных частей города из-за расовых аспектов. Есть задокументированные случаи, когда люди-водители были уличены в принятии такого рода решений, см. мое обсуждение на ссылка здесь. Возможно, ИИ был запрограммирован против этого.

Вы решаете поднять красный флаг.

Предположим для обсуждения, что был принят закон Red Flag AI, который распространяется на вашу юрисдикцию. Это может быть местный закон, закон штата, федеральный или международный закон. Анализ, который я провел в соавторстве с Инициативой политики автономных транспортных средств Гарварда (AVPI) о растущей важности местного руководства, когда сообщества переходят на использование беспилотных автомобилей, см. ссылка здесь.

Итак, вы подключаетесь к базе данных Red Flag AI. В базу данных инцидентов вы вводите информацию о поездке на беспилотном автомобиле. Это включает в себя дату и время поездки, а также марку и модель беспилотного автомобиля. Затем вы вводите навигационный маршрут, который показался вам подозрительным, и вы предполагаете или, возможно, прямо заявляете, что ИИ был разработан с предвзятыми или дискриминационными намерениями и способностями.

Нам придется размышлять о других деталях Закона об искусственном интеллекте Red Flag относительно того, что произойдет дальше в этом конкретном сценарии. Теоретически должно быть предусмотрено, что кто-то может проверить красный флаг. Предположительно, они попытаются заставить автопроизводителя или фирму, занимающуюся технологиями беспилотного вождения, объяснить свою точку зрения на зарегистрированный красный флаг. Сколько других таких красных флажков было зарегистрировано? К каким результатам привели эти красные флажки?

И так далее.

Заключение

Нелепо, увещевают некоторые скептики.

Нам не нужны Законы Красного Флага об ИИ, они сурово действуют. Делая что-либо подобное, вы запутаетесь, когда дело доходит до темпов и прогресса ИИ. Любые такие законы были бы громоздкими. Вы бы создали проблему, которая не решает проблему. Есть и другие плохие способы борьбы с ИИ. Не хватайтесь слепо за соломинку, чтобы справиться с предвзятым ИИ.

Переключая передачи, мы все знаем, что тореадоры используют красные плащи, чтобы явно привлечь внимание разъяренного быка. Хотя красный цвет больше всего ассоциируется у нас с этой практикой, вы можете быть удивлены, узнав, что ученые говорят, что быки не воспринимают красный цвет мулеты (они не различают красный цвет). Популярное шоу Разрушители легенд сделал довольно занимательное исследование этого вопроса. Движение плаща является ключевым элементом, а не выбранным цветом.

Для тех, кто отбрасывает необходимость в красных флагах законов об ИИ, встречное утверждение состоит в том, что нам нужно что-то драматическое и безошибочно размахивающее, чтобы убедиться, что разработчики ИИ и фирмы, внедряющие ИИ, будут избегать предвзятого или плохого ИИ. Если бы не красный флаг, возможно, развевающийся плащ или вообще любой способ оповещения мог бы получить должное внимание.

Мы точно знаем, что плохой ИИ существует и что еще больше плохих ИИ будет двигаться в нашем направлении. Поиск способов защитить себя от неблагоприятного ИИ имеет решающее значение. Точно так же не менее важно установить ограждения, чтобы попытаться предотвратить проникновение плохого ИИ в мир.

Эрнест Хемингуэй как-то сказал, что никто, кроме тореадоров, не проживает свою жизнь на полную катушку. Мы должны убедиться, что люди могут прожить свою жизнь до конца, несмотря на то, что нам пропагандируют зло или безумие ИИ.

Источник. предвзятые алгоритмы в автономных системах искусственного интеллекта/