Этика ИИ в противостоянии коварному единомышленнику алгоритмической монокультуры ИИ, в том числе для автономных беспилотных автомобилей

Давайте рассмотрим немного загадочную загадку.

Говорят, что великие умы мыслят одинаково.

Вы, несомненно, много раз слышали эту удобную крылатую фразу. Если во время праздных разговоров вам и вашему коллеге или другу удастся прийти к одной и той же идее в один и тот же момент, один из вас обязательно воскликнет с ликованием, что великие умы мыслят одинаково. Это, несомненно, лестное заявление о вас и вашем ближнем.

Есть еще одна мудрость мудреца, которую мы можем добавить к этому миксу.

Говорят, что дураки редко отличаются.

Я хотел бы немного перефразировать эту поговорку. Кажущаяся разумно эквивалентной поговорка будет заключаться в том, что дураки склонны думать одинаково. Я понимаю, что вы можете немного повозмущаться с переработкой знаменитой строки. Тем не менее, кажется относительно точным, что если дураки редко отличаются друг от друга, то можно заключить, что дураки преимущественно склонны склоняться к одинаковому мышлению. Я надеюсь, что это не вызывает слишком много изжоги или смущения по поводу искажения священной мудрости.

Сейчас мы находимся в опасном моменте этой дилеммы.

Предположим, что мы открыто признаем, что представление о том, что великие умы думают одинаково, в целом верно, и в то же время мы признаем, что утверждение, что глупцы склонны думать одинаково, также верно. Когда вы встречаете группу людей, которые думают одинаково, я должен задать вам простой вопрос.

Все они великие умы или все дураки?

Хлоп!

Согласно правилу о великих умах, они предположительно обладают большими способностями. С другой стороны, согласно правилу о дураках, они, по-видимому, все дураки. Кажется, у нас проблема. Вы можете заикаться, что, может быть, эти единомышленники и великие мыслители, и дураки. Можешь ли ты быть и тем, и другим одновременно? Похоже, вы пытаетесь задать вопрос.

Вы можете горячо возразить, что одинаковое мышление ничего не говорит о том, думает ли собрание много или глупо. Возможно, мы непреднамеренно перевернули логику с ног на голову. Любая группа людей, которые думают одинаково, просто думают одинаково. Вы не можете пытаться наложить на их сходство мышления навешивание ярлыков либо как набор великих умов, либо как глупых умов. У них может быть затуманенное сознание. Они могут быть убежденными умами. По сути, характеристика не обязательно может подпадать под несколько ложную дихотомию: быть исключительно великим или глупым.

Есть все виды прозрений, которые связаны с настройками, в которых участвуют люди, обладающие подобным мышлением.

Сообщается, что Махатма Ганди сказал, что небольшая группа решительных и единомышленников может изменить ход истории. Это, безусловно, демонстрирует огромную силу обладания подобными умами. Платон предостерегал, что когда дело доходит до закрытых умов, которыми, как можно было бы предположить, может быть непоколебимая группа единомышленников, можно получить следующее: «Только этого следует опасаться: смерть духа».

Куда я клоню с этим перечислением курьезов о сходстве ума?

Что ж, оказывается, есть опасения, что ИИ постепенно уводит нас на неизбежный и нежелательный путь, когда алгоритмы ИИ-единомышленников управляют нашей повседневной деятельностью. Обобщенно это называется Алгоритмическая монокультура ИИ.

Мы приближаемся к ситуации, когда общество будет полагаться на широко распространенные системы искусственного интеллекта, которые могут иметь такие же или почти такие же базовые алгоритмические возможности. В этом смысле мы уязвимы перед массовым единомыслием, которое будет существовать по всему миру.

Прежде чем я углублюсь в эту тему, я хочу сразу уточнить, что я не имею в виду разумный ИИ. Как я сейчас объясню, сегодня у нас нет разумного ИИ. Несмотря на эти дикие и наивные заголовки, которые провозглашают, что у нас есть разумный ИИ, это абсолютно не так, и его следует полностью игнорировать.

Причина, по которой я подчеркиваю этот важный момент, заключается в том, что, когда я изображаю ИИ как «единомышленника», я не хочу, чтобы вы пришли к выводу, что сегодняшний ИИ каким-то образом эквивалентен человеческому разуму. Это точно не так. Пожалуйста, не делайте таких антропоморфных ассоциаций. Я использую формулировку единомышленников только для того, чтобы подчеркнуть, что алгоритмы ИИ могут быть составлены таким образом, чтобы они работали одинаково. Однако они не «думают» ни в каком подобии того, что мы могли бы истолковать как человеческое качество мышления. Я скажу больше об этом в ближайшее время здесь.

ИИ, который является «единомышленником» с точки зрения наличия алгоритмической монокультурной конструкции, — это то, что мы можем оценить как одновременно плохое и хорошее. Плохая сторона дела заключается в том, что если эти широко используемые и применяемые ИИ одинаковости изобилуют предубеждениями и дискриминационными включениями, ИИ, вероятно, будет коварно широко использоваться и распространять эти сомнительные практики повсюду. Положительным моментом является то, что если ИИ будет надлежащим образом разработан и реализован без предубеждений и дискриминационных включений, мы надеемся, что справедливость будет широко распространена. Все это имеет очевидные последствия для этики ИИ и этического ИИ. Мой постоянный и обширный обзор этики ИИ и этического ИИ см. ссылка здесь и ссылка здесь.

Вот мои удобные семь эмпирических правил об алгоритмической монокультуре ИИ:

1) Алгоритмическая монокультура ИИ состоит из использования одних и тех же или почти таких же базовых алгоритмов, которые затем широко используются для принятия решений, влияющих на людей.

2) Такой ИИ может обеспечить согласованность и надежность, хотя это палка о двух концах.

3) Одна сторона заключается в том, что ИИ, передающий неблагоприятные предубеждения, легко распространяется и снова и снова используется неблагоприятными способами (это плохо).

4) Другая сторона заключается в том, что ИИ, воплощающий справедливость и другие справедливо желательные свойства, может быть, к счастью, широко распространен (это хорошо).

5) Существует определенная общесистемная уязвимость при наличии однородности ИИ такого калибра, которая может быть серьезно подорвана разрушительными потрясениями.

6) Иногда можно было бы предпочесть неоднородность ИИ, хотя это вызывает опасения по поводу огромных несоответствий, которые могут возникнуть

7) Нам всем нужно думать, наблюдать и бороться с алгоритмической монокультурой ИИ.

Прежде чем перейти к еще большему количеству мяса и картошки о диких и необъяснимых соображениях, лежащих в основе алгоритмической монокультуры ИИ, давайте установим некоторые дополнительные основы по глубоко интегральным темам. Нам нужно кратко окунуться в этику ИИ и особенно в появление машинного обучения (МО) и глубокого обучения (ГО).

Возможно, вы смутно осознаете, что один из самых громких голосов в наши дни в области ИИ и даже за его пределами состоит в том, чтобы требовать большего подобия этического ИИ. Давайте посмотрим, что означает обращение к этике ИИ и этичному ИИ. Кроме того, мы рассмотрим, что я имею в виду, когда говорю о машинном обучении и глубоком обучении.

Один конкретный сегмент или часть этики ИИ, которая привлекает большое внимание средств массовой информации, состоит из ИИ, который демонстрирует неблагоприятные предубеждения и несправедливость. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в неэтичную пропасть (см. мой анализ таких возможностей на ссылка здесь).

Через мгновение я поделюсь с вами некоторыми всеобъемлющими принципами, лежащими в основе этики ИИ. Есть много таких списков, плавающих то здесь, то там. Можно сказать, что единого списка универсальной привлекательности и согласованности пока не существует. Это неприятная новость. Хорошая новость заключается в том, что, по крайней мере, существуют легкодоступные списки этики ИИ, и они, как правило, очень похожи. Все это говорит о том, что с помощью своего рода обоснованной конвергенции мы находим путь к общей общности того, из чего состоит этика ИИ.

Во-первых, давайте кратко рассмотрим некоторые из общих этических принципов ИИ, чтобы проиллюстрировать, что должно быть жизненно важным соображением для любого, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологий, процессов разработки и методов работы, применимых к возможностям ИИ, включая прозрачные и проверяемые методологии, источники данных, процедуры проектирования и документацию.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только кодеры» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как указывалось ранее, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна разбираться в принципах этики ИИ и соблюдать их.

Давайте также убедимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели дико рассуждать о чувствующий AI, эта дискуссия может пойти в совершенно ином направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхразумный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Давайте будем более приземленными и рассмотрим современный вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Вернемся к нашему вниманию к алгоритмической монокультуре ИИ.

Мы все, кажется, понимаем, что в сегодняшнем взаимосвязанном цифровом мире мы можем быть занесены в черный список, имея даже крошечный бит данных, который находится в базе данных и, кажется, идет туда, куда мы идем. Например, предположим, что существует база данных, содержащая фрагмент данных, содержащий индикатор того, что вы не кредитоспособны. Это может быть правдой о вас или может быть полностью ложным. Вы можете знать, что база данных содержит эту часть информации, или можете вообще не знать об этом. Это один большой бред о переполненной данными вселенной, в которую мы все погружены.

База данных, содержащая этот индикатор, может легко поделиться этим жизненно важным аспектом с другими базами данных в других местах. В мгновение ока электронные базы данных по всему миру могут иметь уже переданный флаг о том, что вы не кредитоспособны. Если вы решите подать заявку на кредит, есть вероятность, что какое-то приложение для одобрения кредита обратится к одной из этих баз данных и получит флаг, который говорит, что вы должны быть пренебрежительно. Вы можете попытаться получить кредит, находясь в одной части мира, и получить отказ. Путешествие в другой район может принести мало пользы. Взаимосвязанность баз данных будет преследовать вас независимо от того, как далеко вы путешествуете.

К счастью, постепенно принимаются различные законы о данных и конфиденциальности. Законы заметно отличаются от страны к стране. Они также могут отличаться от штата к штату. Но, по крайней мере, есть осознание опасности, связанной с наличием данных в базах данных, способных быстро распространять информацию о вас. Мы надеемся, что у вас будет юридическое средство, чтобы попытаться предотвратить ложную информацию или, по крайней мере, знать, что она существует о вас. Смотрите мое освещение на ссылка здесь о вторжении в частную жизнь и искусственном интеллекте.

Я думаю, вы могли бы сказать, что данные о вас — это пресловутый вид игры «отметка, вы это» (в которой мы иногда хотим быть помеченным человеком, а иногда мы хотим, чтобы его не помечали).

Сделай глубокий вдох.

Предположим, мы взмахнули волшебной палочкой и можем чудесным образом гарантировать, что этой однородности данных о вас не произойдет. Мы можем объединить все общество и остановить подобные действия. Следовательно, вы можете предположить, что вам больше не угрожают такие опасения.

Извините, но вы упускаете из виду опасности, связанные с алгоритмической монокультурой ИИ.

Вот почему.

Вернемся к примеру с попыткой получить кредит. Представьте, что вы идете к кредитору, и они используют систему ИИ, которая имеет определенный алгоритм, который мы будем называть алгоритмом Y. В вашем случае, когда вы подаете заявку и предоставляете свои данные, алгоритм Y написан таким образом, что он на лету математически определит, следует ли вам отказать в кредите. По сути, этот алгоритм может «решить», что вы не кредитоспособны.

Обратите внимание, что в этом случае мы делаем вид, что ИИ не обращался к базе данных, чтобы попытаться получить вашу кредитоспособность. Таким образом, нет никаких шансов, что ИИ откажется, основываясь на каком-то фрагменте данных, который находится в базе данных здесь или там. Весь выбор был сделан с помощью алгоритма Y в отношении задействованных вычислений.

ИИ показывает, что вам отказали в кредите. Я уверен, что вы были бы разочарованы таким исходом. Однако вы можете пожать плечами и выбрать другого кредитора. Опять же, вы точно знаете, что нет такой базы данных, которая выбила бы вас из борьбы. По вашему мнению, все, что вам нужно сделать, это продолжать пробовать разные кредиторы, и в конечном итоге вы получите зеленый свет.

При переходе к другому кредитору, еще раз вам отказали. Это сбивает с толку. Вы обращаетесь к другому кредитору, но вам быстро отказывают. Одна за другой каждая попытка приводит к одному и тому же удручающему результату. Вы раздражены. Вы раздражены до бесконечности.

Что, черт возьми, происходит?

Неужели все эти кредиторы тайно сговорились, чтобы убедиться, что вы не получите кредит?

Короткий ответ: «Нет», и мы собираемся сказать, что они не вступали в сговор как таковые. Вместо этого все они использовали алгоритм Y. Они не «сговорились» в том смысле, что собрались в кулуарах и согласились использовать алгоритм Y в своем ИИ. Не было никакой мафиозной тусовки, на которой говорилось бы, что все они будут использовать алгоритм Y. В качестве примечания: можно предположить, что это действительно может произойти, но ради обсуждения мы собираемся пока отложить эти альтернативы в сторону. .

Существует вполне разумная причина, по которой алгоритм Y может использоваться всеми этими отдельными и разными кредиторами. Возможно, алгоритм Y доступен с открытым исходным кодом. Разработчики ИИ в каждом из этих разных кредиторов могли в каждом случае просто обратиться к библиотеке с открытым исходным кодом и скопировать этот фрагмент кода в свою систему ИИ.

Вероятно, это был самый простой и быстрый способ выполнить работу. Не нужно с нуля пытаться разработать этот алгоритм Y. Через несколько минут онлайн-доступа кодирование уже сделано для вас и сразу готово к использованию. Скопировать и вставить. Кроме того, вы можете избежать необходимости выполнять отладку кода. Вы можете предположить, что код уже хорошо протестирован и вам не нужно изобретать велосипед.

Итак, кредитор за кредитором, все невинно решили использовать алгоритм Y. Существует большая вероятность того, что алгоритм Y станет известен как «золотой стандарт», который будет использоваться для определения кредитоспособности. И это сделает принятие именно этого алгоритма еще более популярным. Разработчики ИИ не только экономят время, используя его, но и делают все безопасно. Все остальные клянутся, что алгоритм пригоден для использования. Зачем вам бороться с мудростью толпы? Казалось бы, неразумно это делать.

Добро пожаловать в эпоху алгоритмической монокультуры ИИ.

На этом примере мы обнаружили, что один и тот же алгоритм можно легко использовать снова и снова во множестве систем ИИ. Особого заговора по этому поводу нет. Никакого супер-пупер спланированного злого заговора под рукой нет. Вместо этих злонамеренных схем, конкретный алгоритм становится доминирующим из-за того, что может быть изображено как добродетельные и выгодные причины.

В прошлые годы существовала возможность широкого использования одних и тех же алгоритмов, хотя необходимо было преодолеть больше препятствий. Сегодня доступ к использованию алгоритмов хранения концентраторов осуществляется практически без усилий. Открытый исходный код более принят, чем это было, возможно, в предыдущих поколениях. И так далее.

С одним примером кредитора, который мы исследовали, мы могли бы закончить с двумя кредиторами, двадцатью кредиторами, двумя сотнями кредиторов, двумя тысячами кредиторов или, возможно, сотнями тысяч кредиторов, решивших использовать один и тот же алгоритм Y в своих операциях. ИИ. Алгоритм ИИ безошибочен. Он выбирается и внедряется в ИИ по всему миру.

Никаких красных флажков никто не поднимает. Для этого нет видимой причины. Во всяком случае, красный флаг может быть поднят, когда какой-то кредитор решит не использовать алгоритм Y. Эй, вопрос может быть увещеван, вы не используете алгоритм Y. Что дает? Вы намеренно пытаетесь сделать что-то закулисное или грязное? Соберитесь и присоединяйтесь ко всем остальным.

Экстраполируйте ту же концептуальную монокультуру на всевозможные системы ИИ и всевозможные алгоритмы.

Исследовательское исследование описало этот феномен следующим образом: «Появление алгоритмов, используемых для формирования общественного выбора, сопровождалось опасениями по поводу монокультуры — представлением о том, что выбор и предпочтения станут однородными перед лицом алгоритмического курирования» (Джон Клейнберга и Маниш Рагхавана, «Алгоритмическая монокультура и социальное обеспечение» PNAS 2021). Далее они отмечают: «Даже если алгоритмы более точны в каждом конкретном случае, мир, в котором все используют один и тот же алгоритм, подвержен коррелированным сбоям, когда алгоритм оказывается в неблагоприятных условиях».

Теперь мы можем с пользой вернуться к моему предыдущему набору из семи правил об алгоритмической монокультуре ИИ:

1) Алгоритмическая монокультура ИИ состоит из использования одних и тех же или почти таких же базовых алгоритмов, которые затем широко используются для принятия решений, влияющих на людей.

2) Такой ИИ может обеспечить согласованность и надежность, хотя это палка о двух концах.

3) Одна сторона заключается в том, что ИИ, передающий неблагоприятные предубеждения, легко распространяется и снова и снова используется неблагоприятными способами (это плохо).

4) Другая сторона заключается в том, что ИИ, воплощающий справедливость и другие справедливо желательные свойства, может быть, к счастью, широко распространен (это хорошо).

5) Существует определенная общесистемная уязвимость при наличии однородности ИИ такого калибра, которая может быть серьезно подорвана разрушительными потрясениями.

6) Иногда можно было бы предпочесть неоднородность ИИ, хотя это вызывает опасения по поводу огромных несоответствий, которые могут возникнуть

7) Нам всем нужно думать, наблюдать и бороться с алгоритмической монокультурой ИИ.

Как отмечено в моем правиле № 2, в отношении алгоритмической монокультуры ИИ явно есть палка о двух концах.

Согласно моему правилу №3, вы можете оказаться на коротком конце палки. Если вам отказывают кредитор за кредитором, куда бы вы ни пошли, и если алгоритм Y делает это на основе предвзятости или других несоответствующих причин, вы, к сожалению, прокляты. Вам будет намного труднее пытаться это опровергнуть. В случае данных о вас в базе данных есть вероятность, что у вас будет некоторая юридическая помощь, а также общее признание того, что могут сделать неверные данные. Мало кто поймет, что плохой алгоритм следует за вами на край света.

Согласно моему правилу № 4, у алгоритмической монокультуры ИИ есть потенциальные преимущества. Предположим, что алгоритм Y правомерно препятствует получению кредита. Возможно, вы пытались исподтишка и пагубно обмануть вещи, присматриваясь к ним. Поскольку тот же алгоритм Y широко используется, ваши покупки вряд ли принесут вам прибыль. Хотя нам может не нравиться идея постоянной и общей возможности справедливости алгоритма (если такая вещь существует, см. мой анализ на ссылка здесь), мы можем радоваться, когда хорошая вещь широко распространяется.

Давайте теперь обсудим шоки.

В моем правиле № 5 я указываю, что в основе лежит опасение, что алгоритмическая монокультура ИИ может подвергнуться массовому разрушению. Это легко объяснимо. Представьте, что в алгоритме Y есть программная ошибка. Никто ее не заметил. Веками он прятался там у всех на виду. Если вы сомневаетесь, что это когда-либо могло произойти, а именно, что ошибка будет в открытом исходном коде, но еще не была обнаружена ранее, см. мое освещение на ссылка здесь таких экземпляров.

Ошибка всплывает и приводит к тому, что алгоритм Y больше не является прославленным фрагментом кода, каким все его считали. Поймите, что эта ошибка сидит в тех тысячах и тысячах систем ИИ. В скором времени ошибка может быть обнаружена по всей планете, и мы быстро столкнемся с ужасным беспорядком. Поскольку все кладут яйца в одну корзину, и поскольку корзина теперь совершенно перепутана, то же самое происходит во всем мире.

Катастрофа эпических масштабов.

Теоретически этого бы не произошло, если бы кредиторы разрабатывали свои собственные алгоритмы. Скорее всего, если бы у одного из них была ошибка, у других ее бы не было. В случае, если все они используют один и тот же базовый код, все они имеют одну и ту же ошибку.

Черт, если да, черт возьми, если нет.

Я уверен, что некоторые из вас кричат, что хорошая новость об ошибке в настройках монокультуры заключается в том, что если есть доступное исправление, каждый может просто установить одно и то же исправление. Казалось бы, это яркий и солнечный взгляд на этот вопрос. Да, это может сработать. Суть здесь, однако, в том, что существует повышенная вероятность повсеместного сбоя. Даже если с решением будет легче справиться, вы все равно столкнетесь с массовым разрушением из-за аспектов монокультуры.

Помимо случая ошибки, которая может вызвать шок, мы можем придумать множество других неприятных сценариев. Одним из них может быть кибер-мошенник, который изобретает злой способ узурпировать широко используемый алгоритм. У злодея может быть золотое дно в их руках. Они могут переходить от ИИ к ИИ, заставляя ИИ делать что-то подлое. Все потому, что один и тот же алгоритм использовался снова и снова. Огромный масштаб может быть использован во благо и, к сожалению, потенциально может быть использован во зло.

Могу поспорить, что на данном этапе этой серьезной дискуссии вам нужны наглядные примеры, которые могли бы продемонстрировать эту тему. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-то об алгоритмической монокультуре ИИ, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Самоуправляемые автомобили и алгоритмическая монокультура ИИ

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я надеюсь, что это дает достаточное количество предостережений, чтобы обосновать то, что я собираюсь рассказать.

Мы начнем с утверждения некоторых важных оснований. Разрабатываются системы вождения с искусственным интеллектом, чтобы попытаться безопасно управлять беспилотными автомобилями. Некоторые автопроизводители и компании, занимающиеся технологиями самостоятельного вождения, кодируют свои машины по-своему. Другие полагаются на открытый исходный код.

Представьте, что некоторый алгоритм Z доступен в репозиториях с открытым исходным кодом и удобен для использования в системах управления ИИ. Автопроизводитель или технологическая фирма, занимающаяся беспилотным вождением, включает алгоритм Z в свою систему вождения с искусственным интеллектом. Это будет неотъемлемо вплетено в их систему управления ИИ.

Если они выставят на проезжую часть, скажем, дюжину беспилотных автомобилей, все эти автономные транспортные средства будут содержать алгоритм Z как часть бортового программного обеспечения системы вождения с искусственным интеллектом. Постепенно, если предположить, что беспилотные автомобили передвигаются безопасно, парк увеличивается до двадцати беспилотных автомобилей на дорогах. Принимается решение о дальнейшем наращивании. Вскоре две тысячи беспилотных автомобилей из этого парка теперь на улицах и автомагистралях. И так далее.

Другой автопроизводитель также использует алгоритм Z в своей системе вождения. Они тоже внедряют свои беспилотные автомобили. Их флот увеличивается в размерах. Вскоре тысячи их беспилотных автомобилей бродят туда-сюда.

Я верю, что вы видите, к чему все идет.

Мы можем оказаться в монокультуре алгоритмов ИИ на фоне появления беспилотных автомобилей на основе ИИ. Множество брендов и моделей автономных транспортных средств могут иметь определенный алгоритм, используемый где-то в их системе управления ИИ. Никакого сговора по этому поводу не было. Никаких грандиозных заговоров.

Что касается того, сколько беспилотных автомобилей мы когда-нибудь сможем использовать на наших дорогах, то на эту тему ведутся жаркие споры. Мы знаем, что только в Соединенных Штатах сегодня насчитывается около 250 миллионов автомобилей, управляемых людьми. Некоторые предполагают, что нам, следовательно, потребуется около 250 миллионов автомобилей с автоматическим управлением, если предположить, что мы в конечном итоге покончим с автомобилями, управляемыми людьми, или что они естественным образом будут заменены автомобилями с автоматическим управлением.

Не так быстро, увещевают некоторые. Автомобили, управляемые людьми, проводят около 90% или более своего времени без использования. По большому счету, автомобили, управляемые людьми, стоят на стоянке и ждут, когда ими будет управлять человек-водитель. Самоуправляемые автомобили на основе искусственного интеллекта могут находиться в движении почти все время. Предположительно, у вас может быть беспилотный автомобиль с искусственным интеллектом, который будет работать 24 часа в сутки, 7 дней в неделю, за исключением техобслуживания или другого необходимого простоя.

В этом случае вам, по-видимому, не потребуется 250 миллионов автомобилей с автоматическим управлением, чтобы заменить один к одному 250 миллионов автомобилей, управляемых людьми. Возможно, будет достаточно 200 миллионов беспилотных автомобилей. Может 100 млн. Никто не может сказать наверняка. Мою оценку этого вопроса см. ссылка здесь.

Я хочу на данный момент просто указать, что у нас могут быть миллионы и миллионы беспилотных автомобилей, которые в конечном итоге будут колесить по нашим шоссе и проселочным дорогам. Сколько именно их в конечном счете будет у нас на дорогах, не столь важно для данного рассуждения. Несомненно, их будет много миллионов. Этот размер в целом важен из-за алгоритмической монокультуры ИИ и ключевого свойства сталкиваться как с преимуществами, так и с недостатками в массовом масштабе.

Вот изюминка.

По ужасной глупой случайности в алгоритме Z возникла серьезная проблема, которую раньше никто не мог заметить. Существует ошибка, из-за которой остальная часть системы управления ИИ выйдет из строя.

Плохие новости.

Для тех из вас, кто находится в муках разработки систем управления ИИ, я понимаю, что вам обычно не нравятся такие наихудшие сценарии, и хотя шансы, возможно, невелики, их, тем не менее, стоит обсудить. Мы не можем держать голову в песке. Лучше быть широко открытыми и стремиться предотвратить или, по крайней мере, смягчить подобные бедствия.

Теоретически, беспилотный автомобиль с искусственным интеллектом, содержащий эту ошибку, может попытаться врезаться и врезаться почти во все, что находится в пределах его досягаемости, чтобы сделать это. ИИ просто делает то, для чего он был «придуман» в этом сеттинге. Это было бы катастрофой.

Некоторые из вас могут подумать, что только потому, что один беспилотный автомобиль с искусственным интеллектом может столкнуться с ошибкой, сам по себе не кажется большой проблемой. Я говорю это потому, что как только беспилотный автомобиль ИИ врезается во что-то вроде грузовика или чего-то еще, само транспортное средство, вероятно, будет настолько повреждено, что ИИ больше не сможет активно направлять его для дальнейшего хаоса и разрушения. Он мертв в воде, так сказать.

Ну, рассмотрим задействованный коэффициент масштабирования.

Если существуют миллионы и миллионы беспилотных автомобилей, и все они полагаются на один и тот же встроенный алгоритм Z, они могут, к сожалению, выполнить ту же самую ошибку.

Я знаю и признаю, что эта ошибка может быть исправлена ​​или устранена с помощью OTA (беспроводного) обновления программного обеспечения, распространяемого в электронном виде. В качестве краткого обзора многие рассказали о преимуществах использования OTA. Когда потребуется обновление программного обеспечения, вам не придется везти беспилотный автомобиль с искусственным интеллектом в автомастерскую или в дилерский центр. OTA можно проводить практически везде, где находится беспилотный автомобиль (с некоторыми ограничениями).

Между тем, пока мы не выясним ошибку и исправление, а также отправим ее через OTA, беспилотные автомобили на дорогах все еще будут находиться в опасном положении. Некоторые столкнулись с ошибкой и пошли наперекосяк. Другие находятся на грани этого.

Мы могли бы настаивать на том, чтобы все беспилотные автомобили на данный момент были остановлены на месте и не использовались в дальнейшем, пока исправление OTA не будет передано в системы вождения ИИ. Представьте себе срыв. Предположим, у нас осталось очень мало машин, управляемых людьми. Также велика вероятность того, что беспилотные автомобили не будут оснащены средствами управления для человека. По сути, вы можете получить заземление 200 миллионов (или сколько угодно) беспилотных автомобилей, пока мы исправим ошибку.

Если общество стало зависеть от беспилотных автомобилей, вы в значительной степени закрыли общество с точки зрения мобильности, по крайней мере, до тех пор, пока не будет выпущено исправление ошибки.

Теперь это было бы пагубным и шокирующим потрясением для системы, так сказать.

Я подозреваю, что мысль о затаившемся жуке, совершающем ужасные действия, кажется почти невозможной, хотя в то же время мы не можем полностью исключить такую ​​возможность. Существуют и другие возможности, например уязвимости киберпреступников. Например, я обсуждал, как мошенническое национальное государство может попытаться совершить гнусный поступок, используя слабость в системе управления ИИ, см. мое обсуждение на ссылка здесь. Кроме того, мои подробности о том, как может быть осуществлен злонамеренный захват беспилотных автомобилей с искусственным интеллектом, см. в моем репортаже на ссылка здесь.

Заключение

Единомышление — это и благословение, и проклятие.

Ранее мы отмечали слова Ганди о том, что единомышленники могут достичь великих целей. ИИ, который «единомышленник», потенциально может добиться многого. Платон предупреждал нас, что закрытые умы могут быть серьезной опасностью. Если вокруг нас есть системы единомышленников, мы потенциально сталкиваемся с скрытыми опасностями непреднамеренных (или преднамеренных) подрывных элементов, которые могут нанести вред некоторым из нас или, возможно, всем нам.

Нам нужно непредвзято относиться к алгоритмической монокультуре ИИ. Если мы будем делать все правильно, мы сможем использовать хорошее и предотвратить плохое.

Но только в том случае, если мы правы во всем этом.

Источник: https://www.forbes.com/sites/lanceeliot/2022/06/19/ai-ethics-confronting-the-insidious-one-like-mind-of-ai-algorithmic-monoculture-включая-для- автономные беспилотные автомобили/