Этика ИИ бьет тревогу о надвигающемся спектре предубеждений ИИ в огромном глобальном масштабе, особенно подпитываемых с помощью надвигающихся полностью автономных систем

Платон говорил, что хорошее решение основывается на знаниях, а не на числах.

Это острое понимание кажется удивительно прозорливым в отношении сегодняшнего искусственного интеллекта (ИИ).

Видите ли, несмотря на кричащие заголовки, в настоящее время провозглашающие, что ИИ каким-то образом достиг разума и воплощает в себе человеческие знания и рассуждения, имейте в виду, что эта преувеличенная гипербола ИИ является коварным увиливанием, поскольку мы все еще полагаемся на перемалывание чисел в сегодняшнем алгоритме принятия решений (ADM). ), как это делают системы ИИ. Даже хваленое машинное обучение (ML) и глубокое обучение (DL) состоят из сопоставления вычислительных шаблонов, а это означает, что числа по-прежнему лежат в основе возвышенного использования ML/DL.

Мы не знаем, возможно ли достижение ИИ разума. Может быть, может не быть. Никто не может точно сказать, как это могло произойти. Некоторые считают, что мы будем постепенно улучшать наши вычислительные усилия в области искусственного интеллекта, так что спонтанно возникнет форма разума. Другие считают, что ИИ может превратиться в своего рода вычислительную сверхновую и достичь разумности практически самостоятельно (обычно это называют сингулярностью). Подробнее об этих теориях будущего ИИ см. в моем репортаже на ссылка здесь.

Итак, давайте не будем обманывать себя и ошибочно полагать, что современный ИИ способен думать как человек. Я полагаю, что тогда на первый план выходит вопрос о замечании Платона о том, можем ли мы принимать правильные решения, основанные на вычислительном ИИ, а не на разумном ИИ. Вы можете быть удивлены, узнав, что я утверждаю, что мы действительно можем принимать правильные решения с помощью повседневных систем ИИ.

Другая сторона этой медали заключается в том, что у нас также могут быть повседневные системы искусственного интеллекта, которые принимают неверные решения. Гнилые решения. Решения, которые изобилуют неблагоприятными предубеждениями и несправедливостью. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Мое обширное освещение этики ИИ и этического ИИ можно найти по адресу эта ссылка здесь и эта ссылка здесь, Просто назвать несколько.

В рамках данного обсуждения я хотел бы затронуть особенно тревожный аспект ИИ, о котором те, кто занимается этикой ИИ, справедливо сетуют и пытаются привлечь к нему внимание. На отрезвляющий и сбивающий с толку вопрос на самом деле довольно просто указать.

Вот оно: ИИ обладает реальным потенциалом распространения предубеждений, связанных с ИИ, в тревожном глобальном масштабе.

И когда я говорю «в масштабе», это явно означает всемирный масштаб. Огромный масштаб. Шкала, которая зашкаливает.

Прежде чем я углублюсь в то, как будет происходить это масштабирование предубеждений, связанных с ИИ, давайте убедимся, что у всех нас есть некоторое представление о том, как ИИ может включать в себя неправомерные предубеждения и неравенства. Напомним еще раз, что это не разумная разновидность. Это все вычислительного калибра.

Вы можете быть озадачены тем, как ИИ может наполнить те же неблагоприятные предубеждения и неравенства, что и люди. Мы склонны думать об ИИ как о чем-то совершенно нейтральном, непредвзятом, просто о машине, у которой нет эмоционального влияния и грязного мышления, которые могут быть у людей. Один из наиболее распространенных способов того, как ИИ впадает в предвзятость и неравенство, возникает при использовании машинного обучения и глубокого обучения, частично в результате использования собранных данных о том, как люди принимают решения.

Позвольте мне поподробнее.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений или АДМ ИИ аксиоматически становится отягощенным неравенствами.

Нехорошо.

Это подводит нас к вопросу о предвзятости, связанной с ИИ, в масштабе.

Во-первых, давайте посмотрим, как человеческие предубеждения могут создавать неравенство. Компания, выдающая ипотечные кредиты, решает нанять агента по ипотечным кредитам. Агент должен рассматривать запросы от потребителей, которые хотят получить ипотечный кредит. После рассмотрения заявки агент принимает решение либо о предоставлении кредита, либо об отказе в кредите. Очень просто.

Для обсуждения давайте представим, что кредитный агент-человек может анализировать 8 кредитов в день, тратя на проверку около часа. За пятидневную рабочую неделю агент делает около 40 обзоров кредита. Ежегодно агент обычно делает около 2,000 кредитных обзоров, плюс-минус немного.

Компания хочет увеличить объем рассмотрения кредитов, поэтому фирма нанимает 100 дополнительных кредитных агентов. Давайте предположим, что все они имеют примерно одинаковую производительность, и это означает, что теперь мы можем обрабатывать около 200,000 2,000 кредитов в год (из расчета XNUMX XNUMX обзоров кредитов в год на одного агента). Похоже, мы действительно ускорили обработку заявок на кредит.

Оказывается, компания разрабатывает систему искусственного интеллекта, которая, по сути, может выполнять те же проверки кредитов, что и агенты-люди. ИИ работает на компьютерных серверах в облаке. Благодаря облачной инфраструктуре компания может легко увеличить вычислительную мощность, чтобы справиться с любым объемом проверок кредитов, которые могут потребоваться.

С существующей конфигурацией ИИ они могут выполнять 1,000 проверок кредита в час. Это также может происходить 24×7. Для ИИ не требуется отпуск. Никаких перерывов на обед. ИИ работает круглосуточно, не крича о переутомлении. Мы скажем, что при таком приблизительном темпе ИИ может обрабатывать около 9 миллионов кредитных заявок в год.

Обратите внимание, что мы перешли от 100 человек-агентов, которые могли выдать 200,000 9 кредитов в год, и многократно увеличили количество проверок в XNUMX миллионов в год с помощью системы искусственного интеллекта. Мы значительно увеличили объем обработки запросов на получение кредита. Насчет этого сомнений нет.

Будьте готовы к кикеру, который, возможно, заставит вас упасть со стула.

Предположим, что некоторые из наших агентов-людей принимают решения о кредите на основе неблагоприятных предубеждений. Возможно, некоторые придают расовым факторам ключевую роль в решении о кредите. Возможно, некоторые используют пол. Другие используют возраст. И так далее.

Сколько из 200,000 10 ежегодных проверок кредитов проводится под неправомерным взглядом неблагоприятных предубеждений и несправедливости? Возможно, 20,000%, что составляет около 50 100,000 запросов на кредит. Что еще хуже, предположим, что это XNUMX% запросов на получение кредита, и в этом случае существует довольно тревожное количество XNUMX XNUMX ежегодных случаев принятия ошибочных решений по кредиту.

Плохо. Но нам еще предстоит рассмотреть еще более пугающую возможность.

Предположим, у ИИ есть скрытая предвзятость, состоящая из таких факторов, как раса, пол, возраст и тому подобное. Если 10% ежегодных кредитных анализов подвержены этой сомнительности, у нас есть 900,000 100 кредитных запросов, которые обрабатываются ненадлежащим образом. Это намного больше, чем могли бы сделать агенты-люди, в первую очередь просто из-за аспектов объема. Эти 200,000 агентов, если бы все они целиком проводили несправедливую проверку, могли бы сделать это самое большее в отношении 9,000,000 XNUMX ежегодных проверок кредита. ИИ мог бы делать то же самое в гораздо больших масштабах из XNUMX XNUMX XNUMX ежегодных обзоров.

Хлоп!

Это действительно предвзятость ИИ в огромных масштабах.

Когда неблагоприятные предубеждения погребены внутри системы ИИ, то же самое масштабирование, которое казалось выгодным, теперь переворачивается с ног на голову и становится чудовищно обманчивым (и тревожным) результатом масштабирования. С одной стороны, ИИ может с пользой для себя работать с большим количеством людей, которые запрашивают ипотечные кредиты. На первый взгляд, это кажется огромным AI для хорошего. Мы должны похлопать себя по спине за предположительное увеличение шансов людей на получение необходимых кредитов. Между тем, если у ИИ есть встроенные предубеждения, масштабирование будет чрезвычайно гнилым результатом, и мы прискорбно погрязнем в AI для плохих, в действительно массовых масштабах.

Пресловутый обоюдоострый меч.

ИИ может радикально расширить доступ к принятию решений для тех, кто ищет желаемые услуги и продукты. Больше нет узкого места в рабочей силе, ограниченного людьми. Выдающийся! Другое острие меча заключается в том, что если ИИ содержит такие недостатки, как скрытое неравенство, то самое массовое масштабирование приведет к распространению этого неблагоприятного поведения в невообразимых масштабах. Возмутительно, несправедливо, постыдно, и мы не можем допустить, чтобы общество упало в такую ​​уродливую пропасть.

Любой, кто был озадачен тем, почему мы должны бить молотком о важности этики ИИ, должен теперь понимать, что явление масштабирования ИИ — чертовски важная причина для следования за этическим ИИ. Давайте уделим немного времени краткому рассмотрению некоторых ключевых принципов этического ИИ, чтобы проиллюстрировать, что должно быть жизненно важным для всех, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологии, процессов разработки и методов работы, применимых к возможностям ИИ, в том числе с использованием прозрачных и проверяемых методологий, источников данных, а также процедур проектирования и документации.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только кодеры» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Имейте в виду, что для разработки и использования ИИ требуется деревня. Для чего вся деревня должна быть в курсе об этике ИИ.

Как работает масштабирование смещения с помощью ИИ

Теперь, когда я понял, что ИИ может содержать предубеждения, мы готовы изучить некоторые причины, по которым масштабирование ИИ так навязчиво.

Рассмотрим этот краеугольный список из десяти основных причин:

  1. Легко копируется
  2. Минимальные затраты на масштабирование
  3. Отвратительно последовательный
  4. Отсутствие саморефлексии
  5. Слепое послушание
  6. Не опрокидывает руку
  7. Получатель ничего не подозревает
  8. Старается не подстегивать провокацию
  9. Ложная аура справедливости
  10. Трудно опровергнуть

Я кратко рассмотрю каждый из этих важных моментов.

Когда вы пытаетесь масштабироваться с помощью человеческого труда, есть вероятность, что сделать это будет чрезвычайно сложно. Вы должны найти и нанять людей. Вы должны научить их выполнять эту работу. Вы должны платить им и учитывать человеческие желания и потребности. Сравните это с системой ИИ. Вы разрабатываете его и используете. Помимо некоторого объема текущего обслуживания ИИ, вы можете сидеть сложа руки и позволить ему работать бесконечно.

Это означает, что ИИ легко воспроизводится. Вы можете добавить больше вычислительной мощности в зависимости от задачи и объема (вы не нанимаете и не увольняете). Глобальное использование осуществляется нажатием кнопки и достигается всемирной доступностью Интернета. Масштабирование — это минимальные затраты по сравнению с человеческим трудом.

Человеческий труд, как известно, непостоянен. Когда у вас есть большие команды, у вас есть настоящая коробка конфет, и вы никогда не знаете, что может оказаться у вас в руках. Система ИИ, вероятно, будет очень последовательной. Он повторяет одни и те же действия снова и снова, каждый раз, по сути, то же самое, что и в прошлый раз.

Обычно мы бы наслаждались согласованностью ИИ. Если люди склонны к предубеждениям, у нас всегда будет какая-то часть нашего человеческого труда, которая идет по ложному пути. ИИ, если бы он был абсолютно беспристрастен в своей конструкции и вычислительных усилиях, был бы гораздо более последовательным. Проблема, однако, в том, что, если у ИИ есть скрытые предубеждения, последовательность теперь болезненно отвратительна. Скорее всего, предвзятое поведение будет повторяться постоянно, снова и снова.

Мы надеемся, что люди будут иметь какое-то представление о саморефлексии и, возможно, поймают себя на принятии предвзятых решений. Я не говорю, что все бы так сделали. Я также не говорю, что те, кто поймают себя, обязательно исправят свои ошибки. В любом случае, по крайней мере, некоторые люди иногда поправлялись.

ИИ вряд ли будет иметь какую-либо форму вычислительной саморефлексии. Это означает, что ИИ просто продолжает делать то, что делает. Вероятность того, что ИИ обнаружит, что он идет вразрез с справедливостью, практически нулевая. При этом я описал некоторые попытки справиться с этим, такие как создание компонентов этики ИИ в рамках ИИ (см. ссылка здесь) и разработка ИИ, который отслеживает другие ИИ для выявления неэтичных действий ИИ (см. ссылка здесь).

Не имея какой-либо саморефлексии, ИИ, скорее всего, будет слепо подчиняться тому, что ему велят делать. Люди могут быть не такими послушными. Есть вероятность, что некоторые люди, выполняющие задание, зададутся вопросом, не ведут ли их на территорию несправедливости. Они будут склонны отвергать неэтичные команды или, возможно, пойдут по пути осведомителей (см. эта ссылка здесь). Не ждите, что повседневный современный ИИ каким-то образом усомнится в его программировании.

Далее мы обратимся к тем, кто использует ИИ. Если вы искали ипотечный кредит и разговаривали с человеком, вы могли бы быть настороже в отношении того, дает ли человек вам справедливую тряску. При использовании системы ИИ большинство людей кажутся менее подозрительными. Они часто предполагают, что ИИ справедлив, и поэтому не так быстро раздражаются. Похоже, что ИИ убаюкивает людей в трансе «это просто машина». Кроме того, может быть сложно протестовать против ИИ. Напротив, возражать против того, как с вами обращался агент-человек, намного проще, и это гораздо более общепринято и считается вполне возможным.

В общем и целом, ИИ, погрязший в предубеждениях, имеет позорное преимущество перед людьми, погрязшими в предубеждениях, а именно с точки зрения возможности заставить ИИ массово развертывать эти предубеждения в гигантских масштабах, делая это без того, чтобы быть пойманным или иметь потребителей. осознать, что тревожит происходящее.

Могу поспорить, что на данном этапе обсуждения вам нужны дополнительные примеры, которые могли бы продемонстрировать загадку предубеждений, связанных с ИИ, в масштабе.

Я рад, что вы спросили.

Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-либо о масштабных предубеждениях, связанных с ИИ, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

На 5-м уровне еще нет настоящей машины для самостоятельного вождения, о которой мы еще даже не знаем, удастся ли этого достичь, и сколько времени потребуется, чтобы туда добраться.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Самоуправляемые автомобили и искажения ИИ в масштабе

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я верю, что это дает достаточный перечень предостережений, чтобы обосновать то, что я собираюсь рассказать.

Сейчас мы готовы к глубокому погружению в самоуправляемые автомобили и возможности этического ИИ, что влечет за собой исследование предубеждений, связанных с ИИ, которые распространяются в больших масштабах.

Возьмем простой пример. Беспилотный автомобиль на основе искусственного интеллекта движется по улицам вашего района и, кажется, едет безопасно. Поначалу вы уделяли особое внимание каждому случаю, когда вам удавалось мельком увидеть беспилотный автомобиль. Автономное транспортное средство выделялось своей стойкой электронных датчиков, включая видеокамеры, радары, устройства LIDAR и тому подобное. После многих недель, когда беспилотный автомобиль колесит по вашему району, вы едва замечаете его. Насколько вам известно, это просто еще одна машина на и без того загруженных дорогах общего пользования.

Чтобы вы не думали, что знакомство с беспилотными автомобилями невозможно или неправдоподобно, я часто писал о том, как места, которые находятся в рамках испытаний беспилотных автомобилей, постепенно привыкли видеть обновленные автомобили. см. мой анализ на эта ссылка здесь. Многие из местных жителей в конечном итоге перешли от восторженного таращивания рта, разинув рот, к тому, чтобы теперь широко зевать от скуки, наблюдая за этими извилистыми беспилотными автомобилями.

Вероятно, главная причина, по которой сейчас они могут заметить автономные транспортные средства, заключается в факторе раздражения и раздражения. Стандартные системы вождения с искусственным интеллектом следят за тем, чтобы автомобили соблюдали все ограничения скорости и правила дорожного движения. Для беспокойных водителей-людей в их традиционных автомобилях, управляемых людьми, вы иногда раздражаетесь, когда застреваете за строго законопослушными самоуправляемыми автомобилями на основе искусственного интеллекта.

Это то, к чему нам всем, возможно, нужно привыкнуть, справедливо это или нет.

Вернемся к нашей сказке.

Оказывается, по поводу безобидных и общепризнанных беспилотных автомобилей на основе ИИ начинают возникать две неуместные опасения, а именно:

а. Там, где ИИ бродит по беспилотным автомобилям для подбора поездок, вырисовывалось озвученное беспокойство.

б. Вопрос о том, как ИИ относится к ожидающим пешеходам, не имеющим права проезда, стал насущной проблемой.

Сначала ИИ разъезжал на беспилотных автомобилях по всему городу. Любой, кто хотел заказать поездку на беспилотном автомобиле, имел практически равные шансы его поймать. Постепенно ИИ начал заставлять беспилотные автомобили перемещаться только в одном районе города. Этот раздел приносил больше денег, и система искусственного интеллекта была запрограммирована на максимизацию доходов от использования в сообществе.

Члены сообщества в бедных частях города с меньшей вероятностью могли воспользоваться беспилотным автомобилем. Это было связано с тем, что беспилотные автомобили находились дальше и перемещались в более прибыльной части региона. Когда запрос поступал из отдаленной части города, любой запрос из более близкого места, которое, вероятно, находилось в «уважаемой» части города, получал более высокий приоритет. В конце концов, получить беспилотный автомобиль в любом месте, кроме более богатой части города, стало почти невозможно, особенно для тех, кто жил в этих теперь бедных ресурсами районах.

Можно утверждать, что ИИ в значительной степени приземлился на форму прокси-дискриминации (также часто называемой косвенной дискриминацией). ИИ не был запрограммирован на то, чтобы избегать бедных кварталов. Вместо этого он «научился» делать это с помощью ML/DL.

Дело в том, что водители-попутчики были известны тем, что делали то же самое, хотя и не обязательно исключительно из-за угла зарабатывания денег. Были некоторые из водителей-людей, которые имели неблагоприятное предубеждение в отношении попутчиков в определенных частях города. Это было довольно известное явление, и город внедрил метод мониторинга, чтобы поймать водителей, делающих это. Водители-люди могут попасть в беду из-за сомнительных методов отбора.

Предполагалось, что ИИ никогда не попадет в такие зыбучие пески. Не было создано специального мониторинга, чтобы отслеживать, куда движутся беспилотные автомобили на основе ИИ. Только после того, как жители города начали жаловаться, руководство города осознало, что происходит. Для получения дополнительной информации об этих типах общегородских проблем, которые собираются представить автономные транспортные средства и беспилотные автомобили, см. мой репортаж на эта ссылка здесь и в котором описывается исследование, проведенное под руководством Гарварда по этой теме, соавтором которого я был.

Этот пример аспектов роуминга беспилотных автомобилей на основе ИИ иллюстрирует более раннее указание на то, что могут быть ситуации, вовлекающие людей с неблагоприятными предубеждениями, для которых устанавливаются средства контроля, и что ИИ, заменяющий этих водителей-людей, остается безнаказанным. бесплатно. К сожалению, ИИ может затем постепенно увязнуть в подобных предубеждениях и делать это без достаточных ограждений.

Это также демонстрирует склонность ИИ к масштабированию.

В случае с водителями-людьми у нас могло быть несколько здесь или там, которые проявляли некоторую форму несправедливости. Что касается системы вождения с искусственным интеллектом, то обычно это один такой унифицированный искусственный интеллект для всего парка беспилотных автомобилей. Таким образом, мы могли бы начать, скажем, с пятидесяти беспилотных автомобилей в городе (все они управляются одним и тем же кодом ИИ) и постепенно увеличить, скажем, до 500 автомобилей с автоматическим управлением (все они управляются одним и тем же кодом ИИ). Поскольку всеми этими пятью сотнями беспилотных автомобилей управляет один и тот же ИИ, они, соответственно, подвержены одним и тем же производным предубеждениям и неравенствам, заложенным в ИИ.

Масштабирование вредит нам в этом отношении.

Второй пример включает в себя ИИ, определяющий, следует ли останавливаться для ожидания пешеходов, которые не имеют права проезда, чтобы перейти улицу.

Вы, несомненно, ездили за рулем и сталкивались с пешеходами, которые ждали перехода улицы, но не имели для этого преимущественного права проезда. Это означало, что вы могли по своему усмотрению остановиться и пропустить их. Вы можете продолжить движение, не давая им пересечься, и при этом полностью соблюдать правила дорожного движения.

Исследования того, как люди-водители решают останавливаться или не останавливаться для таких пешеходов, показали, что иногда люди-водители делают выбор, основываясь на неблагоприятных предубеждениях. Водитель-человек может посмотреть на пешехода и решить не останавливаться, даже если бы он остановился, если бы пешеход имел другой внешний вид, например, в зависимости от расы или пола. Я изучил это в ссылка здесь.

Представьте, что беспилотные автомобили на основе ИИ запрограммированы на решение вопроса о том, останавливаться или не останавливаться для пешеходов, не имеющих преимущественного права проезда. Вот как разработчики ИИ решили запрограммировать эту задачу. Они собирали данные с городских видеокамер, расставленных по всему городу. Данные демонстрируют водителей-людей, которые останавливаются для пешеходов, не имеющих преимущественного права проезда, и водителей-людей, которые не останавливаются. Все это собирается в большой набор данных.

Используя машинное обучение и глубокое обучение, данные моделируются вычислительно. Затем система вождения с искусственным интеллектом использует эту модель, чтобы решить, когда останавливаться или не останавливаться. Как правило, идея состоит в том, что из чего бы ни состоял местный обычай, именно так ИИ будет управлять беспилотным автомобилем.

К удивлению городских властей и жителей, ИИ, очевидно, выбирал останавливаться или не останавливаться в зависимости от внешнего вида пешехода, включая его расу и пол. Датчики беспилотного автомобиля будут сканировать ожидающего пешехода, передавать эти данные в модель ML / DL, а модель будет передавать ИИ информацию о том, следует ли остановиться или продолжить движение. К сожалению, в городе уже было много предубеждений в отношении людей-водителей, и ИИ теперь имитировал то же самое.

Этот пример показывает, что система ИИ может просто дублировать уже существовавшие ранее неблагоприятные предубеждения людей. Кроме того, он делает это в масштабе. Любого водителя-человека можно было иногда научить делать эту неблагоприятную форму отбора или, возможно, лично выбирать для этого, но есть вероятность, что основная масса водителей-людей, вероятно, не делает этого в массовом порядке.

Напротив, система управления искусственным интеллектом, используемая для вождения беспилотных автомобилей, вероятно, будет отвратительно последовательно и уверенно выполнять полученную предвзятость.

Заключение

Существует множество способов попытаться избежать разработки ИИ, который имеет неблагоприятные предубеждения или со временем накапливает предубеждения. Насколько это возможно, идея состоит в том, чтобы выявлять проблемы до того, как вы перейдете на высокую скорость и начнете масштабирование. Надеюсь, предубеждения не выйдут за дверь, так сказать.

Предположим, однако, что в ИИ так или иначе возникнут предубеждения. После того, как вы развернетесь в массовом масштабе с помощью ИИ, вы не сможете просто выполнить одну из часто провозглашаемых технических идей «запустил и забыл». Вы должны усердно следить за тем, что делает ИИ, и стремиться обнаружить любые неблагоприятные предубеждения, которые необходимо исправить.

Как указывалось ранее, один из подходов включает в себя обеспечение того, чтобы разработчики ИИ знали об этике ИИ и, таким образом, побуждали их быть начеку, чтобы программировать ИИ, чтобы предотвратить эти проблемы. Другой путь состоит в том, чтобы ИИ сам контролировал неэтичное поведение и/или имел другую часть ИИ, которая отслеживает другие системы ИИ на предмет потенциально неэтичного поведения. Я рассмотрел множество других потенциальных решений в своих трудах.

Последняя мысль на данный момент. Начав эту дискуссию с цитаты из Платона, было бы уместно завершить рассуждения еще одним проницательным высказыванием Платона.

Платон утверждал, что нет ничего плохого в повторении хорошего.

Простота масштабирования с помощью ИИ, безусловно, является жизнеспособным средством достижения такого оптимистичного стремления, когда ИИ находится на переднем крае. AI для хорошего разнообразие. Нам нравится повторять хорошее. Когда ИИ является AI для плохих и изобилующие неблагоприятными предубеждениями и несправедливостями, мы могли бы опереться на замечания Платона и сказать, что повторение плохого приносит большой вред.

Давайте внимательно прислушаемся к мудрым словам Платона и соответствующим образом разработаем наш ИИ.

Источник: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- в глобальном масштабе, особенно подпитываемом за счет вырисовывающихся полностью автономных систем/