Этика ИИ говорит о том, что ИИ должен быть особенно развернут, когда человеческие предубеждения в изобилии

Люди должны знать свои ограничения.

Возможно, вы помните родственную знаменитую фразу о том, что знаете о своих ограничениях, сурово произнесенную персонажем Грязным Гарри в фильме 1973 года под названием Силы Magnum (по словам актера Клинта Иствуда в его запоминающейся роли инспектора Гарри Каллахана). Общее представление состоит в том, что иногда мы склонны упускать из виду собственные пределы и соответственно попадаем в горячую воду. Будь то из-за высокомерия, эгоцентризма или просто из-за того, что мы не замечаем собственных способностей, правило осознавать и принимать во внимание наши наклонности и недостатки чрезвычайно разумно и полезно.

Давайте добавим новый поворот к мудрому совету.

Искусственный интеллект (ИИ) должен знать свои ограничения.

Что я подразумеваю под этим вариантом почитаемой крылатой фразы?

Оказывается, первоначальный порыв использовать современный ИИ в качестве обнадеживающего решения мировых проблем был запятнан и полностью затуманен осознанием того, что сегодняшний ИИ действительно имеет некоторые довольно серьезные ограничения. Мы ушли от воодушевляющих заголовков AI для хорошего и все чаще попадали в AI для плохих. Видите ли, многие системы искусственного интеллекта были разработаны и внедрены со всевозможными неблагоприятными расовыми и гендерными предубеждениями и множеством других подобных ужасающих несправедливостей.

Мое обширное и постоянное освещение этики ИИ и этического ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Предубеждения, обнаруживаемые в этих системах ИИ, не относятся к тому, скажем так, «преднамеренному» типу, который мы приписали бы человеческому поведению. Я упоминаю об этом, чтобы подчеркнуть, что сегодняшний ИИ не обладает разумом. Несмотря на кричащие заголовки, говорящие об обратном, нигде нет ИИ, который хотя бы приблизился к разуму. Вдобавок ко всему, мы не знаем, как сделать ИИ разумным, плюс никто не может точно сказать, достигнем ли мы когда-нибудь разума ИИ. Может быть, это когда-нибудь произойдет, а может быть, и нет.

Итак, я хочу сказать, что мы не можем конкретно привязать намерение к тому типу ИИ, который у нас есть в настоящее время. При этом мы можем в изобилии назначать намерения тем, кто создает системы ИИ. Некоторые разработчики ИИ не подозревают о том, что они разработали систему ИИ, которая содержит сомнительные и, возможно, незаконные предубеждения. Между тем, другие разработчики ИИ понимают, что они внедряют предубеждения в свои системы ИИ, потенциально делая это целенаправленно.

В любом случае результат все равно остается неприличным и, вероятно, незаконным.

Предпринимаются активные усилия по провозглашению принципов этики ИИ, которые помогут разработчикам ИИ и предоставят подходящие рекомендации по предотвращению внедрения предубеждений в их системы ИИ. Это поможет в два раза. Во-первых, у создателей ИИ больше не будет готового оправдания тому, что они просто не знали, каким предписаниям следует следовать. Во-вторых, тех, кто отклоняется от этических условий ИИ, будет легче поймать и показать, что они предотвращают то, о чем их предупреждали и делать, и не делать.

Давайте уделим немного времени краткому рассмотрению некоторых ключевых принципов этики ИИ, чтобы проиллюстрировать, о чем должны думать разработчики ИИ и что неукоснительно выполнять с точки зрения этики ИИ.

Как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологии, процессов разработки и методов работы, применимых к возможностям ИИ, в том числе с использованием прозрачных и проверяемых методологий, источников данных, а также процедур проектирования и документации.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только кодеры» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Имейте в виду, что для разработки и использования ИИ требуется деревня. Для чего вся деревня должна быть в курсе об этике ИИ.

В любом случае, теперь, когда я узнал, что ИИ может содержать предубеждения, мы, возможно, все можем согласиться с этими двумя очевидными фактами:

1. У людей может быть множество неблагоприятных предубеждений, и они могут действовать в соответствии с ними.

2. ИИ может иметь множество неблагоприятных предубеждений и может действовать в соответствии с этими предубеждениями.

Мне несколько не нравится сравнивать людей и ИИ в этом контексте, поскольку это может каким-то образом подразумевать, что ИИ обладает разумными способностями наравне с людьми. Это, безусловно, не так. Я ненадолго вернусь к растущим опасениям по поводу антропоморфизации ИИ чуть позже в этом обсуждении.

Что хуже: люди, демонстрирующие неблагоприятные предубеждения, или ИИ, который так поступает?

Осмелюсь сказать, что вопрос ставит один из тех суровых вариантов. Можно возразить, что это меньшее из двух зол. Мы бы хотели, чтобы люди не олицетворяли неблагоприятные предубеждения. Мы также хотели бы, чтобы даже если у людей есть неблагоприятные предубеждения, они не действовали в соответствии с этими предубеждениями. То же самое можно сказать и об ИИ. Мы бы хотели, чтобы ИИ не внедрял неблагоприятные предубеждения и чтобы даже при наличии таких внутренне закодированных предубеждений ИИ, по крайней мере, не действовал на них.

Желания, однако, не обязательно правят миром (для моего анализа растущего и тревожного подобия так называемого Исполнение желаний ИИ обществом в целом см. ссылка здесь).

Хорошо, мы, очевидно, хотим, чтобы люди знали свои ограничения. Важно понимать, когда у вас есть неблагоприятные предубеждения. Столь же важно попытаться предотвратить проникновение этих неблагоприятных предубеждений в ваши действия и решения. Компании сегодня пробуют всевозможные подходы, чтобы удержать своих сотрудников от попадания в опасные ловушки неблагоприятных предубеждений. Сотрудники проходят специальное обучение тому, как выполнять свою работу с соблюдением этических норм. Процессы формируются вокруг сотрудников, чтобы предупредить их, когда они, кажется, демонстрируют неэтичные нравы. И так далее.

Еще одним средством борьбы с людьми и их неблагоприятными предубеждениями может быть автоматизация работы, выполняемой людьми. Да просто убрать человека из цикла. Не позволяйте человеку выполнять задачу по принятию решений, и вы, по-видимому, больше не будете беспокоиться о том, как человек относится к каким-либо неблагоприятным предубеждениям. В этом нет участия человека, и, таким образом, проблема потенциальных человеческих предубеждений кажется решенной.

Я упоминаю об этом, потому что мы наблюдаем постепенный и масштабный переход к использованию ИИ в качестве алгоритма принятия решений (ADM). Если вы сможете заменить человека-работника ИИ, велика вероятность, что вы получите много преимуществ. Как уже упоминалось, вы больше не будете беспокоиться о человеческих предубеждениях этого рабочего-человека (того, который больше не выполняет эту работу). Скорее всего, ИИ в целом будет менее затратным по сравнению с долгосрочным горизонтом. Вы избавляетесь от всех других разнообразных трудностей, которые неразрывно связаны с людьми-работниками. И т.п.

Предложение, которое набирает силу, выглядит следующим образом: Пытаясь решить, где лучше всего разместить ИИ, сначала обратите внимание на условия, которые уже влекут за собой неблагоприятные человеческие предубеждения со стороны ваших сотрудников и для которых эти предубеждения подрывают или иным образом чрезмерно усложняют определенные задачи принятия решений.

Суть в том, что было бы разумно получить максимальную отдачу с точки зрения инвестиций в ИИ, нацеливаясь прямо на задачи принятия решений человеком, которые трудно контролировать с точки зрения неблагоприятных предубеждений. Удалите рабочих-людей в этой роли. Замените их на ИИ. Предполагается, что у ИИ не будет таких неблагоприятных предубеждений. Таким образом, вы можете получить свой пирог и съесть его, а именно: взять на себя решение задач и сделать это за вычетом этического и юридического призрака неблагоприятных предубеждений.

Когда вы это сделаете карандашом, ROI (окупаемость инвестиций), скорее всего, сделает принятие ИИ несложным выбором.

Вот как это обычно происходит.

Просмотрите всю свою фирму и попытайтесь определить задачи принятия решений, которые влияют на клиентов. Какие из этих задач, скорее всего, будут неуместно отклонены, если работники воплощают неблагоприятные предубеждения? Если вы уже пытались обуздать эти предубеждения, возможно, вы оставили все как есть. С другой стороны, если предубеждения продолжают появляться снова и усилия по их устранению обременительны, подумайте о том, чтобы взять на эту роль какой-нибудь соответствующий ИИ. Не держите рабочих в смеси, так как они могут переопределить ИИ или толкнуть ИИ обратно в бездну неблагоприятных предубеждений. Кроме того, убедитесь, что ИИ может выполнять задачу профессионально, и вы в достаточной степени овладели аспектами принятия решений, необходимыми для выполнения работы.

Промыть и повторить.

Я понимаю, что это кажется простой идеей, хотя понимаю, что существует множество способов, при которых замена людей-работников ИИ может легко пойти наперекосяк. Многие компании стремились к таким действиям и не задумывались, как это сделать. В результате они часто устраивали гораздо больший беспорядок, чем тот, который был у них в руках с самого начала.

Хочу уточнить и подчеркнуть, что ИИ не панацея.

Говоря об этом, есть одна огромная заминка в отношении чистоты, казалось бы, отбрасывания предвзятых лиц, принимающих решения, с якобы беспристрастным ИИ. Загвоздка в том, что вы можете просто заменить один набор неблагоприятных предубеждений на другой. Согласно более раннему указанию, ИИ может содержать неблагоприятные предубеждения и может действовать в соответствии с этими предубеждениями. Делать наглое предположение, что замена предвзятых людей на беспристрастный ИИ — это еще не все.

Короче говоря, вот что происходит при рассмотрении вопроса строго с точки зрения факторов смещения:

  • У ИИ нет неблагоприятных предубеждений, поэтому ADM на основе ИИ удобен в развертывании.
  • ИИ имеет те же неблагоприятные предубеждения, что и люди, которых заменяют, и поэтому ADM на основе ИИ вызывает беспокойство.
  • ИИ вводит новые неблагоприятные предубеждения помимо тех, что были заменены людьми, и, вероятно, соответственно ухудшит ситуацию.
  • ИИ сначала кажется хорошим, а затем постепенно начинает колебаться в неблагоприятных предубеждениях.
  • Другое

Мы можем кратко раскрыть эти возможности.

Первая — это идеализированная версия того, что может произойти. У ИИ нет неблагоприятных предубеждений. Вы ставите ИИ на место, и он отлично справляется со своей задачей. Повезло тебе! Конечно, можно было бы надеяться, что вы также каким-то ловким образом справились с перемещением людей из-за включения ИИ.

Во втором случае вы устанавливаете ИИ и обнаруживаете, что ИИ проявляет те же неблагоприятные предубеждения, что и рабочие-люди. Как это может быть? Обычный способ попасть в эту ловушку — использовать машинное обучение (ML) и глубокое обучение (DL), основанные на собранных данных о том, как люди в этой роли ранее принимали свои решения.

Позвольте мне объяснить.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, выполнявшие эту работу в течение многих лет, допускали неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Тайная математика может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

В общем, вы можете вернуться к исходной точке. Те же неблагоприятные предубеждения людей теперь вычислительно отражаются в системе ИИ. Вы не искоренили предубеждений.

Что еще хуже, вы вряд ли поймете, что у ИИ есть предубеждения. В случае с людьми вы, как правило, должны быть начеку, потому что у людей есть неблагоприятные предубеждения. Это базовое ожидание. Использование ИИ может убаюкать лидеров, заставив их поверить в то, что автоматизация полностью устранила любые человеческие предубеждения. Таким образом, они обвиняют себя в том, что прострелили себе ногу. Они избавились от людей с, казалось бы, известными неблагоприятными предубеждениями, заменив их ИИ, у которого, как считалось, не было таких предубеждений, и тем не менее теперь они ввели в использование ИИ, изобилующий теми же предубеждениями, о существовании которых уже известно.

Это может сделать вещи действительно косоглазыми. Возможно, вы убрали другие ограждения, используемые с работниками-людьми, которые были установлены для обнаружения и предотвращения появления уже ожидаемых человеческих предубеждений. ИИ теперь имеет полную свободу действий. Нет ничего, что можно было бы поймать, прежде чем действовать. Затем ИИ может начать вести вас по мрачной дорожке огромного количества предвзятых действий.

И вы находитесь в неловком и, возможно, ответственном положении, когда вы когда-то знали о предубеждениях, а теперь позволили этим предубеждениям сеять хаос. Возможно, одно дело никогда не сталкиваться с такими неблагоприятными предубеждениями, а затем вдруг ни с того ни с сего их вызывает ИИ. Вы можете попытаться оправдать это отвлекающим маневром типа «кто бы мог подумать» (возможно, не очень убедительно). Но чтобы теперь настроить ИИ, который совершает те же неблагоприятные предвзятые действия, что и раньше, ваши оправдания становятся все тоньше и слабее.

Изюминка этого заключается в том, что ИИ проявляет неблагоприятные предубеждения, с которыми ранее не сталкивались, когда люди выполняли задачу. Можно сказать, что это, возможно, труднее предотвратить, поскольку оно состоит из «новых» предубеждений, которые фирма раньше не искала. В конце концов, оправдания могут не принести вам большого облегчения. Если система искусственного интеллекта зашла как на неэтичную, так и на незаконную территорию, ваш гусь может быть приготовлен.

Еще один аспект, который следует иметь в виду, заключается в том, что ИИ может начинаться очень хорошо, а затем медленно двигаться к неблагоприятным предубеждениям. Это особенно вероятно, когда использование машинного обучения или глубокого обучения происходит на постоянной основе, чтобы поддерживать ИИ в актуальном состоянии. Независимо от того, работает ли ML / DL в режиме реального времени или периодически обновляет данные, внимание должно быть направлено на то, не принимает ли ИИ данные, которые теперь содержат искажения и которых раньше не было.

Руководителей, которые думают, что получают бесплатный обед, взмахнув волшебной палочкой и заменив предвзятых людей-работников ИИ, их ждет очень грубое пробуждение. См. мою дискуссию о важности расширения прав и возможностей лидеров с помощью принципов этики ИИ на ссылка здесь.

Могу поспорить, что на данном этапе обсуждения вам нужны примеры из реальной жизни, которые могли бы продемонстрировать загадку замены (или нет) неблагоприятных предубеждений человека неблагоприятными предубеждениями, основанными на искусственном интеллекте.

Я рад, что вы спросили.

Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-либо о неблагоприятных предубеждениях в ИИ, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

На 5-м уровне еще нет настоящей машины для самостоятельного вождения, о которой мы еще даже не знаем, удастся ли этого достичь, и сколько времени потребуется, чтобы туда добраться.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Самоуправляемые автомобили и искусственный интеллект с неблагоприятными предубеждениями

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я верю, что это дает достаточный перечень предостережений, чтобы обосновать то, что я собираюсь рассказать.

Сейчас мы готовы глубоко погрузиться в самоуправляемые автомобили и возможности этического ИИ, влекущие за собой исследование ИИ и неблагоприятных предубеждений.

Возьмем простой пример. Беспилотный автомобиль на основе искусственного интеллекта движется по улицам вашего района и, кажется, едет безопасно. Поначалу вы уделяли особое внимание каждому случаю, когда вам удавалось мельком увидеть беспилотный автомобиль. Автономное транспортное средство выделялось своей стойкой электронных датчиков, включая видеокамеры, радары, устройства LIDAR и тому подобное. После многих недель, когда беспилотный автомобиль колесит по вашему району, вы едва замечаете его. Насколько вам известно, это просто еще одна машина на и без того загруженных дорогах общего пользования.

Чтобы вы не думали, что знакомство с беспилотными автомобилями невозможно или неправдоподобно, я часто писал о том, как места, которые находятся в рамках испытаний беспилотных автомобилей, постепенно привыкли видеть обновленные автомобили. см. мой анализ на эта ссылка здесь. Многие из местных жителей в конечном итоге перешли от восторженного таращивания рта, разинув рот, к тому, чтобы теперь широко зевать от скуки, наблюдая за этими извилистыми беспилотными автомобилями.

Вероятно, главная причина, по которой сейчас они могут заметить автономные транспортные средства, заключается в факторе раздражения и раздражения. Стандартные системы вождения с искусственным интеллектом следят за тем, чтобы автомобили соблюдали все ограничения скорости и правила дорожного движения. Для беспокойных водителей-людей в их традиционных автомобилях, управляемых людьми, вы иногда раздражаетесь, когда застреваете за строго законопослушными самоуправляемыми автомобилями на основе искусственного интеллекта.

Это то, к чему нам всем, возможно, нужно привыкнуть, справедливо это или нет.

Вернемся к нашей сказке.

Оказывается, по поводу безобидных и общепризнанных беспилотных автомобилей на основе ИИ начинают возникать две неуместные опасения, а именно:

а. То, что ИИ бродит по беспилотным автомобилям в поисках поездок, вызывает тревогу у сообщества в целом.

б. То, как ИИ обрабатывает ожидающих пешеходов, не имеющих права проезда, также является растущей проблемой.

Сначала ИИ разъезжал на беспилотных автомобилях по всему городу. Любой, кто хотел заказать поездку на беспилотном автомобиле, имел практически равные шансы его поймать. Постепенно ИИ начал заставлять беспилотные автомобили перемещаться только в одном районе города. Этот раздел приносил больше денег, и система искусственного интеллекта была запрограммирована на максимизацию доходов от использования в сообществе.

Члены сообщества в бедных частях города с меньшей вероятностью могли воспользоваться беспилотным автомобилем. Это было связано с тем, что беспилотные автомобили находились дальше и перемещались в более прибыльной части региона. Когда запрос поступал из отдаленной части города, любой запрос из более близкого места, которое, вероятно, находилось в «уважаемой» части города, получал более высокий приоритет. В конце концов, получить беспилотный автомобиль в любом месте, кроме более богатой части города, стало почти невозможно, особенно для тех, кто жил в этих теперь бедных ресурсами районах.

Можно утверждать, что ИИ в значительной степени приземлился на форму прокси-дискриминации (также часто называемой косвенной дискриминацией). ИИ не был запрограммирован на то, чтобы избегать бедных кварталов. Вместо этого он «научился» делать это с помощью ML/DL.

Дело в том, что водители-попутчики были известны тем, что делали то же самое, хотя и не обязательно исключительно из-за угла зарабатывания денег. Были некоторые из водителей-людей, которые имели неблагоприятное предубеждение в отношении попутчиков в определенных частях города. Это было довольно известное явление, и город внедрил метод мониторинга, чтобы поймать водителей, делающих это. Водители-люди могут попасть в беду из-за сомнительных методов отбора.

Предполагалось, что ИИ никогда не попадет в такие зыбучие пески. Не было создано специального мониторинга, чтобы отслеживать, куда движутся беспилотные автомобили на основе ИИ. Только после того, как жители города начали жаловаться, руководство города осознало, что происходит. Для получения дополнительной информации об этих типах общегородских проблем, которые собираются представить автономные транспортные средства и беспилотные автомобили, см. мой репортаж на эта ссылка здесь и в котором описывается исследование, проведенное под руководством Гарварда по этой теме, соавтором которого я был.

Этот пример аспектов роуминга беспилотных автомобилей на основе ИИ иллюстрирует более раннее указание на то, что могут быть ситуации, вовлекающие людей с неблагоприятными предубеждениями, для которых устанавливаются средства контроля, и что ИИ, заменяющий этих водителей-людей, остается безнаказанным. бесплатно. К сожалению, ИИ может затем постепенно увязнуть в подобных предубеждениях и делать это без достаточных ограждений.

Второй пример включает в себя ИИ, определяющий, следует ли останавливаться для ожидания пешеходов, которые не имеют права проезда, чтобы перейти улицу.

Вы, несомненно, ездили за рулем и сталкивались с пешеходами, которые ждали перехода улицы, но не имели для этого преимущественного права проезда. Это означало, что вы могли по своему усмотрению остановиться и пропустить их. Вы можете продолжить движение, не давая им пересечься, и при этом полностью соблюдать правила дорожного движения.

Исследования того, как люди-водители решают останавливаться или не останавливаться для таких пешеходов, показали, что иногда люди-водители делают выбор, основываясь на неблагоприятных предубеждениях. Водитель-человек может посмотреть на пешехода и решить не останавливаться, даже если бы он остановился, если бы пешеход имел другой внешний вид, например, в зависимости от расы или пола. Я изучил это в ссылка здесь.

Представьте, что беспилотные автомобили на основе ИИ запрограммированы на решение вопроса о том, останавливаться или не останавливаться для пешеходов, не имеющих преимущественного права проезда. Вот как разработчики ИИ решили запрограммировать эту задачу. Они собирали данные с городских видеокамер, расставленных по всему городу. Данные демонстрируют водителей-людей, которые останавливаются для пешеходов, не имеющих преимущественного права проезда, и водителей-людей, которые не останавливаются. Все это собирается в большой набор данных.

Используя машинное обучение и глубокое обучение, данные моделируются вычислительно. Затем система вождения с искусственным интеллектом использует эту модель, чтобы решить, когда останавливаться или не останавливаться. Как правило, идея состоит в том, что из чего бы ни состоял местный обычай, именно так ИИ будет управлять беспилотным автомобилем.

К удивлению городских властей и жителей, ИИ, очевидно, выбирал останавливаться или не останавливаться в зависимости от внешнего вида пешехода, включая его расу и пол. Датчики беспилотного автомобиля будут сканировать ожидающего пешехода, передавать эти данные в модель ML / DL, а модель будет передавать ИИ информацию о том, следует ли остановиться или продолжить движение. К сожалению, в городе уже было много предубеждений в отношении людей-водителей, и ИИ теперь имитировал то же самое.

Хорошая новость заключается в том, что это поднимает проблему, о существовании которой ранее почти никто не знал. Плохая новость заключалась в том, что, поскольку ИИ был пойман на этом, он получил большую часть вины. Этот пример показывает, что система ИИ может просто дублировать уже существовавшие ранее неблагоприятные предубеждения людей.

Заключение

Существует множество способов попытаться избежать разработки ИИ, который либо изначально имеет неблагоприятные предубеждения, либо со временем накапливает предубеждения. Один из подходов включает в себя обеспечение того, чтобы разработчики ИИ знали об этом и, таким образом, держали их в напряжении, чтобы запрограммировать ИИ, чтобы предотвратить это. Другой путь состоит в том, чтобы ИИ сам контролировал неэтичное поведение (см. ссылка здесь) и/или наличие еще одной части ИИ, которая отслеживает другие системы ИИ на предмет потенциально неэтичного поведения (я рассказывал об этом на ссылка здесь).

Подводя итог, мы должны понимать, что у людей могут быть неблагоприятные предубеждения и что им каким-то образом нужно знать свои ограничения. Точно так же у ИИ могут быть неблагоприятные предубеждения, и нам каким-то образом нужно знать их ограничения.

Для тех из вас, кто жадно придерживается этики ИИ, я хотел бы прямо сейчас закончить еще одной известной строкой, которую все уже должны знать. А именно, пожалуйста, продолжайте использовать и делиться важностью этического ИИ. И тем самым я бы нахально сказал: «Давай, сделай мой день».

Источник: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-особенно-deployed-when-human-biases-are-aplenty/