Этика ИИ Шокирующее откровение о том, что обучение ИИ токсичности или предвзятости может быть полезным, в том числе для автономных беспилотных автомобилей

Вот старая строчка, которую, я уверен, вы уже слышали.

Рыбак рыбака видит издалека.

Возможно, вы не понимаете, что это выражение восходит к началу 1900-х годов и обычно используется, когда речь идет о правонарушителях (другие вариации крылатой фразы восходят к 1600-м годам). Пример того, как можно использовать это высказывание, влечет за собой представление о том, что если вы хотите поймать вора, вам нужно использовать для этого вора. Это демонстрирует утверждение о том, что нужно знать одно. Многие фильмы и телешоу извлекли выгоду из этой полезной мудрости мудреца, часто изображая, что единственный жизнеспособный способ поймать мошенника — это нанять такого же коррумпированного мошенника для преследования правонарушителя.

Переключив передачу, некоторые могут использовать ту же логику, чтобы утверждать, что подходящим способом определить, воплощает ли кто-то неправомерные предубеждения и дискриминационные убеждения, было бы найти кого-то, кто уже питает такие тенденции. Предположительно, человек, уже наполненный предубеждениями, сможет с большей готовностью почувствовать, что этот другой человек также до краев наполнен токсичностью. Опять же, нужно знать, что это общепризнанная мантра.

Ваша первоначальная реакция на возможность использования предвзятого человека для расследования другого предвзятого человека может быть скептицизмом и недоверием. Разве мы не можем выяснить, есть ли у кого-то неблагоприятные предубеждения, просто изучив их и не прибегая к поиску кого-то еще схожего характера? Было бы странно намеренно искать кого-то предвзятого, чтобы выявить других, которые также склонны к токсичности.

Я предполагаю, что это частично зависит от того, готовы ли вы принять предполагаемый рефрен о том, что нужно знать человека. Обратите внимание, что это не означает, что единственный способ поймать вора требует, чтобы вы всегда и исключительно использовали вора. Вы могли бы разумно утверждать, что это просто дополнительный путь, которому следует уделить должное внимание. Может быть, иногда вы готовы использовать вора, чтобы поймать вора, в то время как другие обстоятельства могут сделать эту тактику непостижимой.

Как говорится, используйте правильный инструмент для правильной настройки.

Теперь, когда я изложил эти основы, мы можем перейти к, возможно, нервирующей и якобы шокирующей части этой истории.

Готовы ли вы?

Область ИИ активно следует тому же постулату, который иногда требуется знать, особенно в случае попытки выявить ИИ, который предвзят или действует дискриминационным образом. Да, сногсшибательная идея состоит в том, что мы могли бы намеренно захотеть разработать ИИ, который был бы полностью и беззастенчиво предвзятым и дискриминационным, делая это для того, чтобы использовать его как средство для обнаружения и раскрытия другого ИИ, обладающего таким же подобием токсичности. Как вы вскоре увидите, в основе этого лежит множество неприятных вопросов этики ИИ. Мой общий постоянный и обширный обзор этики ИИ и этического ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Я думаю, вы могли бы выразить это использование токсичного ИИ, чтобы преследовать другой токсичный ИИ, как общеизвестную концепцию борьбы с огнем с огнем (мы можем использовать множество эвфемизмов и иллюстративных метафор, чтобы изобразить эту ситуацию). Или, как уже подчеркивалось, мы могли бы скупо сослаться на утверждение, что для того, чтобы познать себя, требуется один человек.

Общая концепция заключается в том, что вместо того, чтобы просто пытаться выяснить, содержит ли данная система ИИ неправомерные предубеждения, используя обычные методы, возможно, нам следует также стремиться использовать менее традиционные средства. Одним из таких нетрадиционных способов может быть разработка ИИ, который содержит в себе все худшие предубеждения и социально неприемлемую токсичность, а затем использовать этот ИИ, чтобы помочь избавиться от других ИИ, которые имеют те же склонности к злу.

Если вдуматься, это, безусловно, кажется совершенно разумным. Мы могли бы стремиться создать ИИ, максимально токсичный. Затем этот токсичный ИИ используется для обнаружения других ИИ, которые также обладают токсичностью. Что касается обнаруженного тогда «плохого» ИИ, мы можем справиться с ним, либо устранив токсичность, либо полностью отказавшись от ИИ (см. эта ссылка здесь), или заключение ИИ в тюрьму (см. мой отчет о заключении ИИ на эта ссылка здесь), или сделайте что-нибудь еще, что кажется подходящим.

Контраргумент состоит в том, что мы должны проверить наши головы на предмет того, что мы намеренно и добровольно разрабатываем ИИ, который ядовит и наполнен предубеждениями. Это последнее, о чем мы должны когда-либо думать, увещевали бы некоторые. Сосредоточьтесь на том, чтобы сделать ИИ полностью состоящим из добра. Не сосредотачивайтесь на разработке ИИ, в котором есть зло и отбросы неоправданных предубеждений. Сама мысль о таком стремлении некоторым кажется отталкивающей.

Есть еще сомнения по поводу этого спорного квеста.

Возможно, миссия по разработке токсичного ИИ просто придаст смелости тем, кто хочет создать ИИ, способный подорвать общество. Мы как будто говорим, что создание ИИ с неуместными и неприятными предубеждениями — это прекрасно. Никаких забот, никаких колебаний. Стремитесь разработать токсичный ИИ в свое удовольствие, мы громко говорим разработчикам ИИ по всему миру. Это (подмигнул) все во имя добра.

Кроме того, предположим, что этот токсичный ИИ приживется. Возможно, ИИ используется и повторно используется многими другими создателями ИИ. В конце концов, токсичный ИИ прячется во всех системах ИИ. Можно провести аналогию с изобретением вредоносного для человека вируса, вырвавшегося из предположительно закрытой лаборатории. Следующее, что вы знаете, чертова штука повсюду, и мы уничтожили себя.

Подождите секунду, ответ на эти контраргументы идет, вы беситесь со всеми видами сумасшедших и ничем не подтвержденных предположений. Сделайте глубокий вдох. Успокойся.

Мы можем безопасно создавать токсичный ИИ и держать его взаперти. Мы можем использовать токсичный ИИ, чтобы найти и помочь уменьшить растущую распространенность ИИ, который, к сожалению, имеет неправомерные предубеждения. Любые другие из этих нелепо диких и необоснованных снежных комов восклицаний являются чисто рефлекторной реакцией и, к сожалению, глупыми и откровенно безрассудными. Не пытайтесь выплеснуть ребенка вместе с водой из ванны, вы предупреждены.

Думайте об этом таким образом, утверждают сторонники. Надлежащее создание и использование токсичного ИИ для целей исследования, оценки и действия в качестве детектива для раскрытия других социально оскорбительных ИИ является достойным подходом, и его следует справедливо встряхнуть при преследовании. Отложите в сторону свои опрометчивые реакции. Спуститесь на землю и посмотрите на это трезво. Мы стремимся к цели, а именно к выявлению и устранению избытка предвзятых систем искусственного интеллекта и обеспечению того, чтобы наше общество не было наводнено токсичным искусственным интеллектом.

Период. Полная остановка.

Существуют различные ключевые способы углубиться в это понятие использования токсичного или предвзятого ИИ в полезных целях, в том числе:

  • Настройте наборы данных, которые намеренно содержат предвзятые и в целом токсичные данные, которые можно использовать для обучения ИИ тому, что не следует делать и / или на что обращать внимание.
  • Используйте такие наборы данных для обучения моделей машинного обучения (ML) и глубокого обучения (DL) для обнаружения предубеждений и выяснения вычислительных моделей, влекущих за собой социальную токсичность.
  • Примените ML/DL, обученный токсичности, к другому ИИ, чтобы убедиться, что целевой ИИ потенциально предвзят и токсичен.
  • Обеспечьте доступность машинного и машинного обучения, обученного токсичности, чтобы продемонстрировать разработчикам ИИ, на что следует обратить внимание, чтобы они могли легко проверять модели, чтобы увидеть, как возникают искажения, обусловленные алгоритмами.
  • Продемонстрируйте опасность токсичного ИИ как часть этики ИИ и осведомленности об этике ИИ, рассказанной в этой серии примеров проблемного ребенка с плохим до мозга костей ИИ.
  • Другие контрактные услуги

Прежде чем углубиться в суть этих нескольких путей, давайте установим некоторые дополнительные основополагающие детали.

Возможно, вы смутно осознаете, что один из самых громких голосов в наши дни в области ИИ и даже за его пределами состоит в том, чтобы требовать большего подобия этического ИИ. Давайте посмотрим, что означает обращение к этике ИИ и этичному ИИ. Кроме того, мы можем подготовить почву, изучив, что я имею в виду, когда говорю о машинном обучении и глубоком обучении.

Один конкретный сегмент или часть этики ИИ, которая привлекает большое внимание средств массовой информации, состоит из ИИ, который демонстрирует неблагоприятные предубеждения и несправедливость. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в неэтичную пропасть (см. мой анализ таких возможностей на ссылка здесь).

Через мгновение я поделюсь с вами некоторыми всеобъемлющими принципами, лежащими в основе этики ИИ. Есть много таких списков, плавающих то здесь, то там. Можно сказать, что единого списка универсальной привлекательности и согласованности пока не существует. Это неприятная новость. Хорошая новость заключается в том, что, по крайней мере, существуют легкодоступные списки этики ИИ, и они, как правило, очень похожи. Все это говорит о том, что с помощью своего рода обоснованной конвергенции мы находим путь к общей общности того, из чего состоит этика ИИ.

Во-первых, давайте кратко рассмотрим некоторые из общих этических принципов ИИ, чтобы проиллюстрировать, что должно быть жизненно важным соображением для любого, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологий, процессов разработки и методов работы, применимых к возможностям ИИ, включая прозрачные и проверяемые методологии, источники данных, процедуры проектирования и документацию.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как указывалось ранее, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна разбираться в принципах этики ИИ и соблюдать их.

Давайте также убедимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели дико рассуждать о чувствующий AI, эта дискуссия может пойти в совершенно ином направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхразумный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Давайте будем более приземленными и рассмотрим современный вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Что еще можно сделать со всем этим?

Давайте вернемся к предложенному ранее списку того, как попытаться справиться с предубеждениями ИИ или токсичным ИИ, используя несколько нетрадиционный подход «нужно знать одно». Напомним, что список состоял из таких существенных пунктов:

  • Настройте наборы данных, которые намеренно содержат предвзятые и в целом токсичные данные, которые можно использовать для обучения ИИ тому, что не следует делать и / или на что обращать внимание.
  • Используйте такие наборы данных для обучения моделей машинного обучения (ML) и глубокого обучения (DL) для обнаружения предубеждений и выяснения вычислительных моделей, влекущих за собой социальную токсичность.
  • Примените ML/DL, обученный токсичности, к другому ИИ, чтобы убедиться, что целевой ИИ потенциально предвзят и токсичен.
  • Обеспечьте доступность машинного и машинного обучения, обученного токсичности, чтобы продемонстрировать разработчикам ИИ, на что следует обратить внимание, чтобы они могли легко проверять модели, чтобы увидеть, как возникают искажения, обусловленные алгоритмами.
  • Продемонстрируйте опасность токсичного ИИ как часть этики ИИ и осведомленности об этике ИИ, рассказанной в этой серии примеров проблемного ребенка, плохого до мозга костей
  • Другие контрактные услуги

Мы внимательно рассмотрим первый из этих существенных моментов.

Настройка наборов данных токсичных данных

Наглядным примером попытки установить наборы данных, содержащих сомнительные социальные предубеждения, является набор данных CivilComments из курируемой коллекции WILDS.

Сначала немного предыстории.

WILDS — это коллекция наборов данных с открытым исходным кодом, которую можно использовать для обучения ML/DL. Основная заявленная цель WILDS заключается в том, что она позволяет разработчикам ИИ иметь свободный доступ к данным, которые представляют распределение сдвигов в различных конкретных областях. Некоторые из доступных в настоящее время доменов охватывают такие области, как виды животных, опухоли в живых тканях, плотность колосьев пшеницы и другие домены, такие как CivilComments, которые я сейчас опишу.

Работа со сдвигами в дистрибуции является важной частью правильной разработки систем AI ML/DL. Вот сделка. Иногда данные, которые вы используете для обучения, оказываются сильно отличными от тестовых или «натуральных» данных, и, таким образом, ваш предположительно обученный ML/DL не соответствует реальному миру. Проницательные создатели ИИ должны обучать свои ML/DL справляться с такими изменениями распределения. Это должно быть сделано заблаговременно, а не каким-либо сюрпризом, который впоследствии потребует переделки ML/DL как такового.

Как поясняется в документе, в котором были представлены WILDS: «Сдвиги распределения — когда распределение обучения отличается от распределения тестирования — могут существенно снизить точность систем машинного обучения (ML), развернутых в дикой природе. Несмотря на их повсеместное распространение в реальных развертываниях, эти сдвиги в распределении недостаточно представлены в наборах данных, широко используемых сегодня в сообществе машинного обучения. Чтобы восполнить этот пробел, мы представляем WILDS, тщательно подобранный бенчмарк из 10 наборов данных, отражающих широкий спектр сдвигов в распределении, которые естественным образом возникают в реальных приложениях, таких как сдвиги между больницами для идентификации опухолей; камеры-ловушки для наблюдения за дикой природой; и во времени и местоположении в спутниковых изображениях и картировании бедности» (в статье под названием «ДИКИЕ МЕСТА: контрольный показатель сдвигов в распределении в дикой природе» Панг Вей Кох, Сиори Сагава, Хенрик Марклунд, Санг Се, Марвин Чжан, Ашай Балсубрамани , Вэйхуа Ху и др.).

Количество таких наборов данных WILDS продолжает увеличиваться, и характер наборов данных, как правило, улучшается, чтобы повысить ценность использования данных для обучения ML/DL.

Набор данных CivilComments описывается следующим образом: «Автоматический просмотр пользовательского текста — например, обнаружение токсичных комментариев — является важным инструментом для модерации огромного объема текста, написанного в Интернете. К сожалению, предыдущая работа показала, что такие классификаторы токсичности улавливают предвзятость в обучающих данных и ложно связывают токсичность с упоминанием определенных демографических данных. Эти типы ложных корреляций могут значительно ухудшить производительность модели для определенных подгрупп. Мы изучаем этот вопрос с помощью модифицированного варианта набора данных CivilComments» (как размещено на веб-сайте WILDS).

Учитывайте нюансы нежелательных публикаций в Интернете.

Вы, несомненно, сталкивались с токсичными комментариями практически в любых социальных сетях. Казалось бы, почти невозможно волшебным образом избежать просмотра едкого и ужасного контента, который, кажется, широко распространен в наши дни. Иногда вульгарный материал едва уловим, и, возможно, вам придется читать между строк, чтобы понять суть предвзятого или дискриминационного тона или смысла. В других случаях слова откровенно ядовиты, и вам не нужен микроскоп или специальное кольцо-декодер, чтобы понять, что влекут за собой отрывки.

CivilComments — это набор данных, который был создан для того, чтобы попытаться разработать AI ML/DL, который может вычислять опасный контент. Вот на чем сосредоточились исследователи, лежащие в основе этих усилий: «Непреднамеренная предвзятость в машинном обучении может проявляться в виде системных различий в производительности для разных демографических групп, потенциально усугубляя существующие проблемы справедливости в обществе в целом. В этой статье мы представляем набор метрик, не зависящих от порога, которые обеспечивают детальное представление об этом непреднамеренном смещении, рассматривая различные способы, которыми распределение баллов классификатора может варьироваться в определенных группах. Мы также представляем большой новый тестовый набор онлайн-комментариев с аннотациями из краудсорсинга для ссылок на удостоверения личности. Мы используем это, чтобы показать, как наши метрики могут быть использованы для обнаружения новых и потенциально незаметных непреднамеренных смещений в существующих общедоступных моделях» (в статье под названием «Нюансированные метрики для измерения непреднамеренных смещений с реальными данными для классификации тестов» Даниэля Боркана, Лукаса Диксона, Джеффри Соренсен, Нитум Тейн, Люси Вассерман).

Если вы подведете к этому вопросу широкое созерцательное мышление, вы можете начать задаваться вопросом, как вообще вы можете отличить ядовитый комментарий от того, что не ядовитый комментарий. Люди могут радикально различаться в отношении того, что они считают откровенно токсичными формулировками. Одного человека может возмутить конкретное онлайн-замечание или комментарий, размещенный в социальных сетях, а кого-то это может вообще не взволновать. Часто приводится аргумент, что понятие ядовитого комментария — совершенно расплывчатое предписание. Это похоже на искусство, о котором принято говорить, что искусство понимается только в глазах смотрящего, и точно так же предвзятые или ядовитые замечания тоже только в глазах смотрящего.

Бред, какая-то реплика. Любой человек в здравом уме может выяснить, является ли онлайн-замечание токсичным или нет. Вам не нужно быть ученым-ракетчиком, чтобы понять, когда какое-то опубликованное едкое оскорбление наполнено предубеждением и ненавистью.

Конечно, общественные нравы меняются и меняются с течением времени. То, что некоторое время назад могло не восприниматься как оскорбительное, сегодня может рассматриваться как отвратительно неправильное. Вдобавок ко всему, вещи, сказанные много лет назад, которые когда-то считались чрезмерно предвзятыми, могут быть переосмыслены в свете изменения смысла. Между тем, другие утверждают, что токсичные комментарии всегда токсичны, независимо от того, когда они были изначально обнародованы. Можно утверждать, что токсичность не относительна, а абсолютна.

Тем не менее, попытка установить, что является токсичным, может оказаться довольно сложной головоломкой. Мы можем удвоить усилия в этом хлопотном вопросе, пытаясь разработать алгоритмы или ИИ, которые могут определить, что есть что. Некоторые говорят, что если людям трудно проводить такие оценки, программирование компьютера, вероятно, не менее или даже более проблематично.

Один из подходов к созданию наборов данных, содержащих токсичный контент, включает в себя использование метода краудсорсинга для ранжирования или оценки содержимого, следовательно, предоставление человеческих средств определения того, что считается нежелательным, и включение маркировки в сам набор данных. Затем AI ML/DL может проверять данные и связанные с ними метки, указанные оценщиками-людьми. Это, в свою очередь, потенциально может служить средством вычислительного поиска лежащих в основе математических закономерностей. Вуаля, ML/DL тогда сможет предсказать или вычислить, будет ли данный комментарий токсичным или нет.

Как упоминалось в цитируемой статье о тонких показателях: «Эта маркировка просит оценщиков оценить токсичность комментария, выбирая из «Очень токсичный», «Токсичный», «Трудно сказать» и «Не токсичный». Оценщиков также спрашивали о нескольких подтипах токсичности, хотя эти обозначения не использовались для анализа в данной работе. Используя эти методы оценки, мы создали набор данных из 1.8 миллиона комментариев, полученных с онлайн-форумов комментариев, содержащих ярлыки токсичности и идентичности. В то время как все комментарии были помечены как токсические, а часть из 450,000 XNUMX комментариев была помечена как идентичная. Некоторые комментарии, помеченные как идентификационные, были предварительно отобраны с использованием моделей, построенных на основе предыдущих итераций идентификационной маркировки, чтобы гарантировать, что краудрейтеры будут часто видеть идентификационный контент» (в цитируемой статье Дэниела Боркана, Лукаса Диксона, Джеффри Соренсена, Нитум Тейн, Люси Вассерман).

Другой пример стремления иметь наборы данных, содержащие иллюстративный токсичный контент, включает усилия по обучению диалоговых интерактивных систем обработки естественного языка (NLP) на основе ИИ. Вы, вероятно, взаимодействовали с системами НЛП, такими как Alexa и Siri. Я рассмотрел некоторые трудности и ограничения современного НЛП, в том числе особенно тревожный случай, когда Алекса дала неподходящий и опасный совет детям, см. ссылка здесь.

В недавнем исследовании была предпринята попытка использовать девять категорий социальных предубеждений, которые обычно основывались на списке защищенных демографических характеристик EEOC (Комиссия по равным возможностям в сфере занятости), включая возраст, пол, национальность, внешний вид, расу или этническую принадлежность, религию, статус инвалидности, половую принадлежность. ориентации и социально-экономического положения. По словам исследователей: «Хорошо задокументировано, что модели НЛП изучают социальные предубеждения, но было проделано мало работы о том, как эти предубеждения проявляются в выходных данных модели для прикладных задач, таких как ответы на вопросы (QA). Мы представляем тест Bias Benchmark для QA (BBQ), набор данных наборов вопросов, созданных авторами, которые подчеркивают подтвержденные социальные предубеждения в отношении людей, принадлежащих к защищенным классам, по девяти социальным измерениям, актуальным для англоязычных контекстов США» (в статье, озаглавленной «BBQ : ручной тест для ответов на вопросы» Алисии Пэрриш, Анжелики Чен, Никиты Нангиа, Вишаха Падмакумара, Джейсона Пханга, Яны Томпсон, Фу Мон Хтута, Сэмюэля Р. Боумана).

Создание наборов данных, которые преднамеренно содержат предвзятые и в целом токсичные данные, является растущей тенденцией в области ИИ и особенно стимулируется появлением этики ИИ и желанием создать этический ИИ. Эти наборы данных можно использовать для обучения моделей машинного обучения (ML) и глубокого обучения (DL) для выявления предубеждений и выяснения вычислительных моделей, влекущих за собой социальную токсичность. В свою очередь, ML/DL, обученный токсичности, можно разумно направить на другой ИИ, чтобы выяснить, является ли целевой ИИ потенциально предвзятым и токсичным.

Кроме того, доступные системы ML/DL, обученные токсичности, можно использовать, чтобы продемонстрировать разработчикам ИИ, на что следует обратить внимание, чтобы они могли легко проверять модели, чтобы увидеть, как возникают алгоритмически заложенные предубеждения. В целом, эти усилия могут проиллюстрировать опасности токсичного ИИ как часть этики ИИ и осознания этики ИИ в целом.

Могу поспорить, что на данном этапе этого серьезного обсуждения вы желаете получить еще несколько иллюстративных примеров, которые могли бы продемонстрировать эту тему. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-либо о полезности наличия наборов данных для разработки токсичного ИИ, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Самоуправляемые автомобили и отказ от токсичного ИИ

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я надеюсь, что это дает достаточное количество предостережений, чтобы обосновать то, что я собираюсь рассказать.

Существует множество потенциальных и, вероятно, когда-нибудь реализованных предубеждений, связанных с искусственным интеллектом, которые будут противостоять появлению автономных транспортных средств и беспилотных автомобилей, см., например, мое обсуждение на ссылка здесь и ссылка здесь. Мы все еще находимся на ранней стадии внедрения беспилотных автомобилей. До тех пор, пока внедрение не достигнет достаточного масштаба и заметности, многие опасные аспекты ИИ, которые, как я предсказывал, в конечном итоге появятся, еще не очевидны и еще не привлекли широкого общественного внимания.

Рассмотрим, казалось бы, простой вопрос, связанный с вождением, который на первый взгляд может показаться совершенно безобидным. В частности, давайте рассмотрим, как правильно определить, следует ли останавливаться для ожидания «своенравных» пешеходов, которые не имеют преимущественного права перехода улицы.

Вы, несомненно, ездили за рулем и сталкивались с пешеходами, которые ждали перехода улицы, но не имели для этого преимущественного права проезда. Это означало, что вы могли по своему усмотрению остановиться и пропустить их. Вы можете продолжить движение, не давая им пересечься, и при этом полностью соблюдать правила дорожного движения.

Исследования того, как люди-водители решают останавливаться или не останавливаться для таких пешеходов, показали, что иногда люди-водители делают выбор, основываясь на неблагоприятных предубеждениях. Водитель-человек может посмотреть на пешехода и решить не останавливаться, даже если бы он остановился, если бы пешеход имел другой внешний вид, например, в зависимости от расы или пола. Я изучил это в ссылка здесь.

Как будут запрограммированы системы вождения с искусственным интеллектом, чтобы принимать такие же решения «стоп-или-идти»?

Вы могли бы заявить, что все системы вождения с искусственным интеллектом должны быть запрограммированы так, чтобы всегда останавливаться для любых ожидающих пешеходов. Это сильно упрощает дело. На самом деле нет никакого запутанного решения, чтобы быть сделанным. Если пешеход ждет перехода, независимо от того, имеет ли он преимущественное право проезда или нет, убедитесь, что беспилотный автомобиль с искусственным интеллектом остановится, чтобы пешеход мог перейти.

Очень просто.

Жизнь никогда не бывает такой легкой, кажется. Представьте, что все беспилотные автомобили соблюдают это правило. Пешеходы неизбежно осознают, что системы вождения с искусственным интеллектом — это, скажем так, пустяки. Все пешеходы, которые хотят перейти улицу, волей-неволей сделают это, когда захотят и где бы они ни находились.

Предположим, что беспилотный автомобиль едет по скоростной улице с установленной скоростью 45 миль в час. Пешеход «знает», что ИИ остановит беспилотный автомобиль. Итак, пешеход выбегает на улицу. К сожалению, физика побеждает ИИ. Система вождения с искусственным интеллектом попытается остановить беспилотный автомобиль, но инерция автономного транспортного средства будет нести многотонную штуковину вперед и врезаться в своенравного пешехода. Результат либо вреден, либо приводит к летальному исходу.

Пешеходы обычно не пытаются вести себя таким образом, когда за рулем находится человек-водитель. Конечно, в некоторых местах идет война глазных яблок. Пешеход смотрит на водителя. Водитель смотрит на пешехода. В зависимости от обстоятельств водитель может остановиться или водитель может заявить о своих правах на проезжую часть и якобы вызвать пешехода, который попытается нарушить их путь.

По-видимому, мы не хотим, чтобы ИИ ввязывался в подобную войну глазных яблок, что в любом случае является немного сложной задачей, поскольку за рулем беспилотного автомобиля не сидит человек или робот (я уже обсуждал возможность появления роботов в будущем). этот диск см. ссылка здесь). Тем не менее, мы также не можем позволить пешеходам всегда командовать. Исход может быть плачевным для всех заинтересованных сторон.

Тогда у вас может возникнуть соблазн перейти на другую сторону этой медали и заявить, что система управления ИИ никогда не должна останавливаться в таких обстоятельствах. Другими словами, если у пешехода нет надлежащего права проезда, чтобы перейти улицу, ИИ всегда должен исходить из того, что беспилотный автомобиль должен двигаться без остановок. Не повезло этим пешеходам.

Такое строгое и упрощенное правило не будет хорошо принято широкой публикой. Люди есть люди, и им не понравится, что их полностью лишат возможности переходить улицу, несмотря на то, что по закону у них нет права проезда в различных условиях. Вы можете легко ожидать значительного возмущения со стороны общественности и, возможно, увидеть негативную реакцию против дальнейшего внедрения беспилотных автомобилей.

Черт, если мы это делаем, и черт возьми, если нет.

Я надеюсь, что это привело вас к аргументированной альтернативе, что ИИ должен быть запрограммирован на подобие принятия решений о том, как справиться с этой проблемой вождения. Жесткое правило «никогда не останавливаться» несостоятельно, точно так же несостоятельно и жесткое правило «всегда останавливаться». ИИ должен быть разработан с некоторым алгоритмическим принятием решений или ADM, чтобы справиться с этим вопросом.

Вы можете попробовать использовать набор данных в сочетании с подходом ML/DL.

Вот как разработчики ИИ могут решить запрограммировать эту задачу. Они собирают данные с видеокамер, установленных по всему городу, в котором будет использоваться беспилотный автомобиль. Данные показывают, когда водители предпочитают останавливаться для пешеходов, не имеющих преимущественного права проезда. Все это собирается в набор данных. Используя машинное обучение и глубокое обучение, данные моделируются вычислительным способом. Затем система вождения с искусственным интеллектом использует эту модель, чтобы решить, когда останавливаться или не останавливаться.

Как правило, идея состоит в том, что из чего бы ни состоял местный обычай, именно так ИИ будет управлять беспилотным автомобилем. Задача решена!

Но действительно ли это решено?

Вспомните, как я уже указывал, что есть исследования, показывающие, что водители-люди могут быть предвзятыми в своем выборе того, когда останавливаться для пешеходов. Собранные данные о конкретном городе, по-видимому, будут содержать эти предубеждения. AI ML/DL, основанный на этих данных, вероятно, будет моделировать и отражать те же предубеждения. Система управления ИИ будет просто выполнять те же существующие предубеждения.

Чтобы попытаться решить эту проблему, мы могли бы собрать набор данных, который на самом деле имеет такие предубеждения. Мы либо находим такой набор данных, а затем маркируем предубеждения, либо искусственно создаем набор данных, чтобы помочь проиллюстрировать этот вопрос.

Будут предприняты все ранее определенные шаги, включая:

  • Настройте набор данных, который намеренно содержит это конкретное смещение
  • Используйте набор данных для обучения моделей машинного обучения (ML) и глубокого обучения (DL) для обнаружения этой конкретной предвзятости.
  • Примените обученный предвзятостью ML / DL к другому ИИ, чтобы убедиться, что целевой ИИ потенциально предвзят таким же образом.
  • Предоставьте обученный смещению ML/DL, чтобы продемонстрировать разработчикам ИИ, на что следует обратить внимание, чтобы они могли легко проверить свои модели, чтобы увидеть, как возникают алгоритмически пропитанные предубеждения.
  • Продемонстрируйте опасности предвзятого ИИ как часть этики ИИ и осведомленности об этике ИИ на этом добавленном конкретном примере.
  • Другие контрактные услуги

Заключение

Вернемся к началу строки.

Рыбак рыбака видит издалека.

Некоторые считают, что это невероятно распространенное высказывание подразумевает, что, когда дело доходит до обнаружения токсичного ИИ, мы должны уделять должное внимание созданию и использованию токсичного ИИ для обнаружения и борьбы с другими токсичными ИИ. Вывод: иногда вор поймает другого вора.

Высказанная озабоченность заключается в том, что, возможно, мы изо всех сил начинаем создавать воров. Хотим ли мы разработать токсичный ИИ? Не кажется ли это сумасшедшей идеей? Некоторые яростно утверждают, что мы должны запретить все токсичные ИИ, в том числе такие ИИ, которые были созданы намеренно, даже если якобы для героических или доблестных целей. AI для хорошего цель.

Подавление токсичного ИИ в любом умном или коварном обличье, которое может возникнуть.

Последний поворот в этой теме на данный момент. Обычно мы предполагаем, что эта знаменитая фраза имеет отношение к людям или вещам, которые совершают плохие или неприятные поступки. Вот как мы приземлились на понятии, что нужен вор, чтобы поймать вора. Может быть, нам стоит перевернуть это высказывание с ног на голову и сделать его лицо скорее счастливым, чем грустным.

Вот как.

Если мы хотим, чтобы искусственный интеллект был беспристрастным и нетоксичным, можно предположить, что для того, чтобы его узнать, требуется один человек. Возможно, требуется величайшее и лучшее, чтобы распознать и породить дальнейшее величие и добро. В этом варианте мудрости мудреца мы держим взгляд на счастливом лице и стремимся сконцентрироваться на разработке ИИ навсегда.

Это была бы более оптимистичная и удовлетворительно жизнерадостная точка зрения на то, что нужно знать, если вы понимаете, что я имею в виду.

Источник: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- выгодно-в том числе-для-тех-автономных-беспилотных-автомобилей/