Коварная прокси-дискриминация людей, основанная на искусственном интеллекте, ужасно раздражает этику искусственного интеллекта, что может иметь место даже в случае автономных беспилотных автомобилей с искусственным интеллектом.

Давайте обсудим прокси-дискриминацию на фоне действий современного искусственного интеллекта (ИИ).

Чтобы разобраться с ИИ, нам нужно сначала подготовить почву для общих аспектов дискриминации, а затем углубиться в, возможно, удивительные способы, которыми ИИ увязает в этом сложном и временами коварном вопросе. Я также приведу примеры прокси-дискриминации на основе ИИ, в том числе то, что это может произойти даже в случае автономных транспортных средств с искусственным интеллектом, таких как беспилотные автомобили.

Итак, начнем.

Словарное определение дискриминации обычно указывает на то, что это действие несправедливого характера, при котором к людям относятся по-разному в зависимости от воспринимаемых категорий, таких как раса, пол, возраст и т. д. (такие критерии часто описываются как состоящие из защищенных классов). Форма дискриминации, известная как направлять дискриминация влечет за собой открытое привязывание к одной из этих категорий, например, относительно четкое выделение, скажем, расы или пола в качестве основания для дискриминации (это будет истолковано как первые факторы). Это, пожалуй, самая прозрачная форма дискриминации.

Другая несколько менее реализованная возможность — использование косвенный дискриминация. Вы можете предположить, что это более сложная форма дискриминации, поскольку она считается удаленной и может быть сложной для обнаружения. Косвенная дискриминация включает в себя своего рода выбор категоризации с удалением на один или несколько шагов. Это также обычно называют прокси-дискриминацией, поскольку существует промежуточный фактор, который служит прокси или заменой для основного и подключаемого первого фактора.

Чтобы прояснить кажущуюся абстрактной идею косвенной или опосредованной дискриминации, мы можем рассмотреть простой пример.

Кто-то подает заявку на жилищный кредит. Предположим, кредитный агент, который рассматривает заявку, решает отклонить кредит и делает это на основании расовой принадлежности заявителя. Можно сказать, что это пример прямой дискриминации. Но вместо этого предположим, что кредитный агент использовал почтовый индекс заявителя и решил отклонить кредит на основе этого фактора. На первый взгляд может показаться, что почтовый индекс не является одним из факторов, обычно считающихся дискриминационным или защищенным классом. Таким образом, кредитный агент, по-видимому, избегал дискриминационного решения.

Однако проблема может заключаться в том, что почтовый индекс на самом деле является прокси для чего-то другого, реальной защищенной категории или класса. Возможно, этот конкретный почтовый индекс преимущественно состоит из определенной расы или этнической принадлежности, и имеет место использование косвенной или косвенной дискриминации. Обычно вы знаете этот тип примера по ключевой фразе «красная черта».

Видите ли, в данном случае существует своего рода связь между фактором, состоящим из почтового индекса, и дискриминационным фактором расы. Почтовый индекс может показаться невинным или нейтральным фактором перед лицом этого обстоятельства. Почтовый индекс кажется большинству из нас довольно безобидным элементом и не вызовет никаких тревожных сигналов.

Вы, возможно, помните, что когда вы изучали статистику, существуют статистические корреляции, которые могут возникать между различными факторами, даже факторами, которые не кажутся вам логически коррелирующими друг с другом. Возможно, существует явная корреляция между почтовым индексом и расой. Таким образом, выбор почтового индекса на первый взгляд кажется безобидным, но при ближайшем рассмотрении он действительно является заменой или заместителем дискриминационно защищенного класса расы.

Вот как исследовательский документ описывает понятие таких корреляций и возникновение косвенной дискриминации: «Дискриминация не обязательно должна включать прямое использование защищенного класса; членство в классе может даже не принимать участия в принятии решения. Дискриминация также может происходить из-за корреляций между защищаемым классом и другими атрибутами. Правовая база несоизмеримого воздействия рассматривает такие случаи, сначала требуя значительно разных результатов для защищаемого класса, независимо от того, как они были получены. Связь между решениями о займе и расой из-за использования адреса заявителя, который сам по себе связан с расой, является примером такого типа дискриминации» (как указано в документе, озаглавленном Прокси-дискриминация в системах, управляемых данными: теория и эксперименты с программами машинного обучения, Анупам Датта, Мэтт Фредриксон, Гихьюк Ко, Петр Мардзил и Шаяк Сен).

Теперь, когда у нас есть основы прокси-дискриминации, мы можем представить аспекты того, как ИИ может по существу внедрить компьютерную версию прокси-дискриминации.

Я хотел бы сосредоточиться на сегодняшнем ИИ, а не на каком-то футуристическом ИИ, который, как говорят некоторые, будет разумным и будет представлять экзистенциальный риск (это другая история, которую я освещал в ссылка здесь). Несмотря на множество кричащих заголовков, в настоящее время провозглашающих, что ИИ каким-то образом достиг разума и воплощает в себе человеческие знания и рассуждения, имейте в виду, что эта преувеличенная гипербола ИИ — чистый вздор, поскольку мы все еще полагаемся на обработку чисел в сегодняшнем алгоритме принятия решений (ADM). как это делают системы ИИ.

Даже хваленое машинное обучение (ML) и глубокое обучение (DL) состоят из сопоставления вычислительных шаблонов, а это означает, что числа по-прежнему лежат в основе возвышенного использования ML/DL. Мы не знаем, возможно ли достижение ИИ разума. Может быть, может не быть. Никто не может точно сказать, как это могло произойти. Некоторые считают, что мы будем постепенно улучшать наши вычислительные усилия в области искусственного интеллекта, так что спонтанно возникнет форма разума. Другие считают, что ИИ может превратиться в своего рода вычислительную сверхновую и достичь разумности практически самостоятельно (обычно это называют сингулярностью). Подробнее об этих теориях будущего ИИ см. в моем репортаже на ссылка здесь.

Итак, давайте не будем обманывать себя и ошибочно полагать, что современный ИИ способен думать как человек. Мы можем попытаться имитировать в ИИ то, из чего, по нашему мнению, может состоять человеческое мышление. До сих пор нам не удавалось взломать неуловимые элементы разработки ИИ, который может включать в себя здравый смысл и другие краеугольные камни человеческого мышления.

Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Мое обширное освещение этики ИИ и этического ИИ можно найти по адресу эта ссылка здесь и эта ссылка здесь, Просто назвать несколько.

Вы можете быть озадачены тем, как ИИ может наполнить те же неблагоприятные предубеждения и неравенства, что и люди. Мы склонны думать об ИИ как о чем-то совершенно нейтральном, непредвзятом, просто о машине, у которой нет эмоционального влияния и грязного мышления, которые могут быть у людей. Один из наиболее распространенных способов того, как ИИ впадает в предвзятость и неравенство, возникает при использовании машинного обучения и глубокого обучения, частично в результате использования собранных данных о том, как люди принимают решения.

Позвольте мне поподробнее.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений или АДМ ИИ аксиоматически становится отягощенным неравенствами.

Нехорошо.

Разрабатываются системы ИИ, которые содержат как прямую дискриминацию, так и скрытую косвенную или прокси-дискриминацию. Как упоминалось в упомянутом выше исследовательском документе: «Однако системы машинного обучения строятся на основе данных наблюдений из реального мира с его многочисленными историческими или институционализированными предубеждениями. В результате они наследуют предубеждения и дискриминационные практики, присущие данным. Принятие таких систем приводит к несправедливым результатам и сохранению предубеждений. Примеров множество: раса ассоциируется с предсказаниями рецидивизма; пол, влияющий на отображаемую рекламу вакансий; раса влияет на отображаемую поисковую рекламу; бостонское приложение Street Bump, ориентированное на ремонт выбоин в богатых районах; Доставка Amazon в тот же день недоступна в черных кварталах; и Facebook, показывающий «белые» или «черные» трейлеры фильмов в зависимости от «этнической принадлежности». Различные случаи дискриминации запрещены законом».

Если бы у нас был ИИ, который подлежал бы исключительно встраиванию направлять проблемы с дискриминацией, есть вероятность, что у нас может быть повышенный шанс борьбы с такими вычислительными болезнями. К сожалению, мир не так прост. Сегодняшний ИИ, вероятно, с такой же, если не большей вероятностью, проникнет через прокси или косвенную дискриминацию. Это грустный сценарий лица. Более глубокое вычислительное болото, лежащее в основе прокси-дискриминации, может оказаться чертовски крепким орешком.

Как заявил комиссар Федеральной торговой комиссии (FTC): «Когда алгоритмические системы участвуют в прокси-дискриминации, они используют одну или несколько внешне нейтральных переменных для замены охраняемого законом признака, что часто приводит к несопоставимому обращению или несопоставимому воздействию на защищенные классы для определенных экономических, социальных и гражданских возможностей. Другими словами, эти алгоритмы идентифицируют кажущиеся нейтральными характеристики для создания групп, которые точно отражают защищенный класс, и эти «заместители» используются для включения или исключения» (как отмечено в статье «Алгоритмы и экономическая справедливость: таксономия вреда и вреда»). путь вперед для Федеральной торговой комиссии», опубликованной в Йельский журнал права и технологий, Комиссар Ребекка Келли Слотер, август 2021 г.).

Один аспект, о котором следует помнить, заключается в том, что ИИ не одинок в практике дискриминации по доверенности. Прокси-дискриминация также не является какой-то новомодной выдумкой. У нас была дискриминация по доверенности в течение долгого времени, определенно задолго до появления ИИ. Комиссар Федеральной торговой комиссии повторил это же важное осознание: «Дискриминация по доверенности не является новой проблемой — использование внешне нейтральных факторов, которые приводят к дискриминационным результатам, — это то, с чем общество и законы о гражданских правах боролись десятилетиями» (опять же в Йельский журнал права и технологий).

Создают ли разработчики ИИ намеренно свои системы ИИ так, чтобы они содержали прокси-дискриминацию?

Ну, вы можете разделить усилия ИИ на те, которые непреднамеренно полагаются на прокси-дискриминацию, и те, которые делают это намеренно. Я предполагаю, что в целом большинство создателей ИИ попадают в вычислительную трясину прокси-дискриминации из-за случайных или случайных действий. Однако это не является оправданием того, что они делают. Они по-прежнему несут ответственность за созданный ими ИИ и не могут просто размахивать руками и заявлять, что не знали, что происходит. На их плечах лежит задача убедиться, что их ИИ не допускает такой дискриминации. Между тем, те, кто коварно и преднамеренно создает свой ИИ с дискриминацией по доверенности, должны быть привлечены к ответственности и соответственно привлечены к ответственности.

Я хотел бы добавить поворот, который, возможно, заставит вашу голову кружиться.

Некоторые утверждают, что чем лучше мы разрабатываем ИИ, тем выше вероятность того, что мы станем свидетелями большего количества случаев ИИ, проникающих в прокси-дискриминацию. Вы можете быть озадачены, почему это так. Надежда и мечта заключались бы в том, что достижения в области искусственного интеллекта уменьшат вероятность того, что вычислительный кошмар, возникающий из-за того, что он попадет в неподходящие воды дискриминации по доверенности.

В этом исследовании, опубликованном в Обзор закона Айовы: «Вместо этого ИИ используют обучающие данные, чтобы самостоятельно определить, какие характеристики можно использовать для прогнозирования целевой переменной. Хотя этот процесс полностью игнорирует причинно-следственную связь, он неизбежно приводит к тому, что ИИ неизбежно «ищет» прокси для непосредственно прогнозируемых характеристик, когда данные об этих характеристиках недоступны для ИИ из-за юридических запретов. Простой отказ ИИ в доступе к наиболее интуитивным прокси для непосредственно предсказывающих переменных мало что может помешать этому процессу; вместо этого он просто заставляет ИИ создавать модели, основанные на менее интуитивно понятных прокси. Таким образом, центральный аргумент этой статьи заключается в том, что по мере того, как ИИ становятся еще умнее, а большие данные становятся еще больше, дискриминация по доверенности будет представлять собой все более фундаментальную проблему для антидискриминационных режимов, которые стремятся запретить дискриминацию, основанную на непосредственно предсказывающих признаках» (как упоминается в статье под названием Дискриминация прокси в эпоху искусственного интеллекта и больших данных, Аня Принс и Даниэль Шварц).

Попробуем изложить логику этого леденящего кровь предсказания.

Предположим, что разработчики ИИ неизбежно осознают, что им следует избегать того, чтобы их модели машинного обучения и глубокого обучения стремились к прокси-дискриминации (можно надеяться, что они уже ищут прямую дискриминацию). Итак, создатели ИИ делают все возможное, чтобы избежать вычислительной фиксации защищенных факторов. Но давайте предположим, что это делается на несколько очевидных основаниях, таких как ограничение любых одно-двухшаговых типов прокси.

Вычислительные модели углубляются в данные и находят трехступенчатую или, может быть, десятиступенчатую удаленную связь прокси-различения. Разработчики ИИ, по-видимому, довольны тем, что двухэтапность может быть показана как не являющаяся частью их системы ML/DL. Между тем, они, возможно, не осознают, что математически были обнаружены трехшаговые, десятишаговые или какие-то другие уровни скрытности. Имейте в виду, что ИИ не является разумным и не пытается сделать это осознанно. Мы по-прежнему имеем в виду ИИ, который не обладает разумом и действует на основе чисел и вычислений.

Да, тревожный факт, что ИИ «продвигается», а мы, кажется, движемся к более мрачному положению дел, довольно раздражает и, возможно, приводит в бешенство. Хотя, с одной стороны, мы можем быть довольны тем, что внимание к предотвращению дискриминации по доверенности привлекает все больше внимания, проблема не исчезнет сама собой. Усилия, направленные на то, чтобы избежать дискриминации прокси-серверов на основе ИИ, могут отодвигать дискриминационные вычислительные открытия все глубже и глубже от раскрытия или понимания людьми.

Это напоминает мне старые мультфильмы о том, как человек попал в зыбучие пески. Чем больше они мечутся, тем хуже становится. В некотором смысле человек вызывает свою собственную гибель, яростно сражаясь с зыбучими песками. Это, безусловно, иронично, поскольку обычно вы ожидаете, что борьба с чем-то приведет к вашему побегу или освобождению.

Не обязательно так.

Эксперты скажут вам, что если вы когда-нибудь попадете в зыбучие пески, разумным вариантом будет попытаться расслабиться и выбраться из ужасной ситуации. Вы должны попытаться плавать на вершине зыбучих песков, возможно, откинувшись назад и поставив ноги на уровень головы. Дикие взмахи нежелательны и, несомненно, уменьшат ваши шансы на побег. Скорее всего, вы стремитесь выплыть или слегка проплыть, или, по крайней мере, достичь положения в зыбучих песках, откуда вы можете добраться до ветки или чего-то еще, чтобы затем вытащить себя дальше.

Можем ли мы использовать такие советы для борьбы с прокси-дискриминацией, проникающей в ИИ?

Вид.

Во-первых, знание того, что прокси-дискриминация может иметь место, является краеугольным камнем для тех, кто разрабатывает и внедряет системы ИИ. Об этом должны подумать все заинтересованные стороны. Руководство, которое наблюдает за проектами ИИ, должно быть в курсе этого, поскольку не только «разработчики ИИ» сами по себе являются частью затруднительного положения. Мы также, вероятно, увидим, как регулирующие органы тоже вмешаются, например, примут новые законы, чтобы попытаться сократить или, по крайней мере, поймать ИИ, в котором внедрены дискриминационные методы. И т. д.

В соответствии с Обзор закона Айовы исследования, мы могли бы стремиться к принятию законов и нормативных актов об ИИ, которые обязывают демонстрировать данные, используемые для ОД/ОД: «Например, затронутые антидискриминационные режимы могут разрешать и, возможно, даже требовать, чтобы фирмы, использующие прогнозирующие ИИ, собирали данные о потенциальное членство людей в охраняемых законом классах. В некоторых случаях эти данные должны быть переданы регулирующим органам и/или раскрыты общественности в сводной форме. Такие данные необходимы фирмам, регулирующим органам, сторонам в судебном процессе и другим лицам, чтобы проверить, действительно ли какой-либо конкретный ИИ занимается дискриминацией по доверенности» (согласно статье Ани Принс и Дэниела Шварца).

Другие возможности включают использование более разнообразных данных и более широкого набора источников данных при разработке модели машинного обучения и глубокого обучения. Другой заключается в том, что от разработчиков ИИ может потребоваться продемонстрировать, что их система ИИ не использует прокси-дискриминацию. Попытка математически продемонстрировать или доказать отсутствие или отсутствие дискриминации по доверенности будет, по меньшей мере, особенно сложной задачей.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в пропасть дискриминации по доверенности (см. мой анализ таких возможностей на ссылка здесь).

Держу пари, что на данном этапе обсуждения вам нужны дополнительные примеры, которые могли бы продемонстрировать загадку дискриминации прокси-серверов на основе ИИ.

Я рад, что вы спросили.

Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-либо о прокси-дискриминации на основе ИИ, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

На 5-м уровне еще нет настоящей машины для самостоятельного вождения, о которой мы еще даже не знаем, удастся ли этого достичь, и сколько времени потребуется, чтобы туда добраться.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Беспилотные автомобили и прокси-дискриминация на основе ИИ

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я верю, что это дает достаточный перечень предостережений, чтобы обосновать то, что я собираюсь рассказать.

Сейчас мы готовы глубоко погрузиться в беспилотные автомобили и возможности этического ИИ, влекущие за собой исследование прокси-дискриминации на основе ИИ.

Представьте, что беспилотный автомобиль на основе искусственного интеллекта едет по улицам вашего района и, кажется, едет безопасно. Поначалу вы уделяли особое внимание каждому случаю, когда вам удавалось мельком увидеть беспилотный автомобиль. Автономное транспортное средство выделялось своей стойкой электронных датчиков, включая видеокамеры, радары, устройства LIDAR и тому подобное. После многих недель, когда беспилотный автомобиль колесит по вашему району, вы едва замечаете его. Насколько вам известно, это просто еще одна машина на и без того загруженных дорогах общего пользования.

Чтобы вы не думали, что знакомство с беспилотными автомобилями невозможно или неправдоподобно, я часто писал о том, как места, которые находятся в рамках испытаний беспилотных автомобилей, постепенно привыкли видеть обновленные автомобили. см. мой анализ на эта ссылка здесь. Многие из местных жителей в конечном итоге перешли от восторженного таращивания рта, разинув рот, к тому, чтобы теперь широко зевать от скуки, наблюдая за этими извилистыми беспилотными автомобилями.

Вероятно, главная причина, по которой сейчас они могут заметить автономные транспортные средства, заключается в факторе раздражения и раздражения. Стандартные системы вождения с искусственным интеллектом следят за тем, чтобы автомобили соблюдали все ограничения скорости и правила дорожного движения. Для беспокойных водителей-людей в их традиционных автомобилях, управляемых людьми, вы иногда раздражаетесь, когда застреваете за строго законопослушными самоуправляемыми автомобилями на основе искусственного интеллекта.

Это то, к чему нам всем, возможно, нужно привыкнуть, справедливо это или нет.

Вернемся к нашей сказке.

Оказывается, по поводу безобидных и общепризнанных беспилотных автомобилей на основе ИИ начинают возникать две неуместные опасения, а именно:

а. Там, где ИИ бродит по беспилотным автомобилям для подбора поездок, вырисовывалось озвученное беспокойство.

б. Вопрос о том, как ИИ относится к ожидающим пешеходам, не имеющим права проезда, стал насущной проблемой.

Сначала ИИ разъезжал на беспилотных автомобилях по всему городу. Любой, кто хотел заказать поездку на беспилотном автомобиле, имел практически равные шансы его поймать. Постепенно ИИ начал заставлять беспилотные автомобили перемещаться только в одном районе города. Этот раздел приносил больше денег, и система искусственного интеллекта была запрограммирована на максимизацию доходов от использования в сообществе.

Члены сообщества в бедных частях города с меньшей вероятностью могли воспользоваться беспилотным автомобилем. Это было связано с тем, что беспилотные автомобили находились дальше и перемещались в более прибыльной части региона. Когда запрос поступал из отдаленной части города, любой запрос из более близкого места, которое, вероятно, находилось в «уважаемой» части города, получал более высокий приоритет. В конце концов, получить беспилотный автомобиль в любом месте, кроме более богатой части города, стало почти невозможно, особенно для тех, кто жил в этих теперь бедных ресурсами районах.

Можно утверждать, что ИИ в значительной степени приземлился на форму прокси-дискриминации (также часто называемой косвенной дискриминацией). ИИ не был запрограммирован на то, чтобы избегать бедных кварталов. Вместо этого он «научился» делать это с помощью ML/DL.

Дело в том, что водители-попутчики были известны тем, что делали то же самое, хотя и не обязательно исключительно из-за угла зарабатывания денег. Были некоторые из водителей-людей, которые имели неблагоприятное предубеждение в отношении попутчиков в определенных частях города. Это было довольно известное явление, и город внедрил метод мониторинга, чтобы поймать водителей, делающих это. Водители-люди могут попасть в беду из-за сомнительных методов отбора.

Предполагалось, что ИИ никогда не попадет в такие зыбучие пески. Не было создано специального мониторинга, чтобы отслеживать, куда движутся беспилотные автомобили на основе ИИ. Только после того, как жители города начали жаловаться, руководство города осознало, что происходит. Для получения дополнительной информации об этих типах общегородских проблем, которые собираются представить автономные транспортные средства и беспилотные автомобили, см. мой репортаж на эта ссылка здесь и в котором описывается исследование, проведенное под руководством Гарварда по этой теме, соавтором которого я был.

Этот пример аспектов роуминга беспилотных автомобилей на основе ИИ иллюстрирует более раннее указание на то, что могут быть ситуации, вовлекающие людей с неблагоприятными предубеждениями, для которых устанавливаются средства контроля, и что ИИ, заменяющий этих водителей-людей, остается безнаказанным. бесплатно. К сожалению, ИИ может затем постепенно увязнуть в подобных предубеждениях и делать это без достаточных ограждений.

Это демонстрирует, как пагубно может возникать дискриминация прокси на основе ИИ.

Второй пример включает в себя ИИ, определяющий, следует ли останавливаться для ожидания пешеходов, которые не имеют права проезда, чтобы перейти улицу.

Вы, несомненно, ездили за рулем и сталкивались с пешеходами, которые ждали перехода улицы, но не имели для этого преимущественного права проезда. Это означало, что вы могли по своему усмотрению остановиться и пропустить их. Вы можете продолжить движение, не давая им пересечься, и при этом полностью соблюдать правила дорожного движения.

Исследования того, как люди-водители решают останавливаться или не останавливаться для таких пешеходов, показали, что иногда люди-водители делают выбор, основываясь на неблагоприятных предубеждениях. Водитель-человек может посмотреть на пешехода и решить не останавливаться, даже если бы он остановился, если бы пешеход имел другой внешний вид, например, в зависимости от расы или пола. Я изучил это в ссылка здесь.

Представьте, что беспилотные автомобили на основе ИИ запрограммированы на решение вопроса о том, останавливаться или не останавливаться для пешеходов, не имеющих преимущественного права проезда. Вот как разработчики ИИ решили запрограммировать эту задачу. Они собирали данные с городских видеокамер, расставленных по всему городу. Данные демонстрируют водителей-людей, которые останавливаются для пешеходов, не имеющих преимущественного права проезда, и водителей-людей, которые не останавливаются. Все это собирается в большой набор данных.

Используя машинное обучение и глубокое обучение, данные моделируются вычислительно. Затем система вождения с искусственным интеллектом использует эту модель, чтобы решить, когда останавливаться или не останавливаться. Как правило, идея состоит в том, что из чего бы ни состоял местный обычай, именно так ИИ будет управлять беспилотным автомобилем.

К удивлению городских властей и жителей, ИИ, очевидно, выбирал останавливаться или не останавливаться в зависимости от возраста пешехода. Как это могло случиться?

При более внимательном рассмотрении видео о действиях водителя-человека выясняется, что многие случаи неостановки были связаны с пешеходами, у которых была трость пожилого человека. Люди-водители, по-видимому, не хотели останавливаться и позволять пожилому человеку переходить улицу, по-видимому, из-за предполагаемой продолжительности поездки. Если пешеход выглядел так, будто может быстро перейти улицу и свести к минимуму время ожидания водителя, водители были более склонны пропустить человека через дорогу.

Это глубоко укоренилось в системе управления ИИ. Датчики беспилотного автомобиля будут сканировать ожидающего пешехода, передавать эти данные в модель ML / DL, а модель будет передавать ИИ информацию о том, следует ли остановиться или продолжить движение. Любое визуальное указание на то, что пешеход может идти медленно, например, использование трости, математически использовалось для определения того, должна ли система вождения ИИ пропускать ожидающего пешехода или нет. Вы можете возразить, что это была форма доверенной дискриминации по возрасту.

Заключение

Существует множество способов попытаться избежать разработки ИИ, который включает дискриминацию по доверенности или который со временем собирает такие предубеждения. Насколько это возможно, идея состоит в том, чтобы выявлять проблемы до того, как вы наберете обороты и развернете ИИ. Будем надеяться, что ни прямая дискриминация, ни косвенная дискриминация, так сказать, не выйдут за дверь.

Как указывалось ранее, один из подходов включает в себя обеспечение того, чтобы разработчики ИИ и другие заинтересованные стороны были осведомлены об этике ИИ и, таким образом, подталкивали их к разработке ИИ для предотвращения этих проблем. Другой путь состоит в том, чтобы ИИ сам контролировал неэтичное поведение и/или имел другую часть ИИ, которая отслеживает другие системы ИИ на предмет потенциально неэтичного поведения. Я рассмотрел множество других потенциальных решений в своих трудах.

Последняя мысль на данный момент.

Возможно, вы знаете знаменитую фразу Лу Герига о том, что в бейсболе нет места дискриминации. Используя тот же ход мыслей, вы можете смело заявить, что в ИИ нет места для дискриминации.

Нам всем нужно взяться за дело и найти способы предотвратить проникновение дискриминации в системы ИИ. Ради нас всех, мы должны выбить это из головы.

Источник: https://www.forbes.com/sites/lanceeliot/2022/04/08/insidious-ai-based-proxy-dismission-against-humans-is-dauntingly-vexing-for-ai-ethics-what может произойти даже в случае-автономных-автомобилей с искусственным интеллектом/