Этика ИИ Тщательная оценка того, является ли разумным или бесполезным предлагать ИИ предвзятость охотничьих вознаграждений за поимку и захват полностью автономных систем с нарушением этических норм

Разыскивается: Охотники за предвзятостью ИИ.

Это может быть современная реклама, которую вы начнете видеть в социальных сетях и в различных онлайн-объявлениях о вакансиях. Это относительно новая концепция или роль. Он несет с собой полемику. Некоторые горячо верующие горячо утверждают, что это имеет большой смысл и должно было происходить все время, в то время как другие довольно нервно ломают голову и не очень уверены, что это хорошая идея.

Суть этой роли состоит в том, чтобы выявить у ИИ любые скрытые предубеждения или укоренившиеся дискриминационные практики. На помощь приходят нетерпеливые и совсем бывшие охотники за предвзятостью ИИ. Предположительно, это были охотники за головами, разбирающиеся в компьютерах. Более того, надеюсь, погруженный в глубины возможностей ИИ.

Имейте оружие, путешествуйте и с помощью острой меткой стрельбы с помощью ИИ разоблачайте эти сомнительные и неблагоприятные предубеждения ИИ.

Это поднимает множество острых вопросов о целесообразности использования такой тактики, когда дело доходит до обнаружения предубеждений ИИ. Как я сейчас расскажу, пожалуйста, знайте, что появление ИИ также принесло с собой появление предубеждений ИИ. Поток предубеждений ИИ. Мой постоянный и обширный обзор этики ИИ и этического ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Как мы можем обнаружить, что конкретная система ИИ имеет предубеждения?

Вы можете доверить это разработчикам ИИ, которые разработали ИИ. Дело в том, что они могут настолько погрязнуть в предубеждениях, что сами не смогут распознать предубеждения в своем придуманном ИИ. Все это выглядит хорошо для них. Или они могут быть настолько взволнованы ИИ и испытывать чувство гордости за него, что им придется критически взглянуть на него, чтобы проверить его на наличие предубеждений, что было бы трудно и по-настоящему удручающе. Может показаться, что многие другие подобные причины мешают разработчикам ИИ взять на себя эту задачу, включая отсутствие навыков для выявления встроенных предубеждений, нехватку времени в проекте для этого и т. д.

Хорошо, так что вперед, наймите внешних консультантов, чтобы они сделали за вас грязную работу. Оказывается, консультанты с радостью проверят ваш ИИ на наличие предубеждений, взимая с вас за это немалые деньги (много-много копеек). Поймите, что вам нужно платить за то, чтобы они догнали вашу систему искусственного интеллекта. Затем вам нужно заставить их рыться, что может занять бесчисленное количество дорогостоящих трудоемких часов. Использование консультантов является вариантом, если у вас есть на это бюджет.

В потенциальный «пробел» в том, как найти эти коварные предубеждения ИИ, приходят героические и лихие предубеждения ИИ, охотники за головами.

Обычно вы не платите им вперед. Они пытаются найти предубеждения ИИ в свободное время, и при этом вынуждены оплачивать свои счета. Только если они успешно обнаруживают предубеждения, им платят. Я полагаю, вы могли бы легко утверждать, что при соответствующем образе мышления это общепринятое определение охотника за головами. Получите деньги в случае успеха. Не платите, если вы не добились успеха. Точка, конец истории.

Баунти-программы существуют, по крайней мере, со времен римлян, и поэтому мы можем предположить, что они действительно работают, успешно сохраняя свою практику на протяжении всех этих лет.

Вот вам увлекательная историческая мелочь. Как сообщается, в сообщении, размещенном во времена Римской империи в городе Помпеи, говорилось, что охотники за головами нужны, чтобы найти медный горшок, пропавший из небольшого магазина. Наградой за обнаружение медного горшка стал внушительный приз в шестьдесят пять бронзовых монет. К сожалению, мы не знаем, нашел ли какой-нибудь охотник за головами медный горшок и забрал бронзовые монеты, но мы знаем, что охота за головами, безусловно, продолжалась с тех древних времен.

В более современные времена вы, возможно, знаете, что в 1980-х годах предлагались некоторые заметные награды за поиск компьютерных ошибок или ошибок в готовых пакетах программного обеспечения, а затем в 1990-х годах Netscape заметно предлагал награду за обнаружение ошибок в своем веб-браузере. (став одной из самых известных фирм того времени). Google и Facebook выбрали охоту за ошибками, начиная с 2010 и 2013 годов соответственно. Несколько лет спустя, в 2016 году, даже Министерство обороны США (DoD) приняло участие в акции, разместив награду «Взломать Пентагон» (обратите внимание, что публично ориентированная награда предназначалась для ошибок, обнаруженных на различных веб-сайтах, связанных с DoD, а не в критически важные оборонные системы).

Давайте углубимся в тему Bug Bounty. Я понимаю, что в этом обсуждении я в основном стремлюсь рассказать о предвзятости ИИ в охоте за головами, но есть некоторые весьма уместные параллели с ареной вознаграждения за ошибки.

Некоторые явно озадачены тем, что какая-либо фирма захочет предложить вознаграждение за обнаружение ошибок (или, в данном случае, предубеждений ИИ) в своих системах.

На первый взгляд, это похоже на стратегию типа «вы просите об этом». Если вы дадите миру понять, что приветствуете тех, кто попытается найти дыры в вашем программном обеспечении, это будет равносильно тому, чтобы сказать грабителям, чтобы они не останавливались и попытались проникнуть в ваш дом. Даже если вы уже верите, что у вас есть довольно хорошая система охранной сигнализации и что никто не сможет проникнуть в ваш охраняемый дом, представьте, что вы просите и даже умоляете грабителей спуститься к вам домой и посмотреть, смогут ли они взломать его. О, беды, которые мы плетем для себя.

То же самое можно сказать и о том, чтобы попросить охотников за головами найти предубеждения в вашем ИИ.

Во-первых, это может означать, что вы уже верите или даже прямо знаете, что у вашего ИИ есть предубеждения. Это поразительно откровенное подразумеваемое признание, которое мало кто захочет сделать, и которое потенциально может иметь неприятные последствия.

Во-вторых, вы не знаете наверняка, что могут сделать эти охотники за головами. Они могли бы рассказать всему миру, что обнаружили предубеждения в вашем ИИ. Можно предположить, что это может привести к потере вознаграждения, хотя некоторые могут наслаждаться вниманием или стремиться укрепить свой статус за счет консультационных услуг и других возможностей для получения дохода. Возможно, это было бы совершенно альтруистично. Это может быть формой активности ИИ. Я могу продолжать.

В-третьих, во всем этом деле может быть хитрый поворот. Охотник за головами, утверждающий, что ищет предубеждения ИИ, может дьявольски ковыряться в поисках способов атаковать вашу систему ИИ. Все это — шарада, чтобы в конечном итоге провести серьезную кибератаку. Вы могли бы подумать, что они пытались помочь, в то время как в их сердцах были проступки. Печально, но возможно.

В-четвертых, мы можем еще хитрее извратиться в этом вопросе. Охотник за головами обнаруживает некоторые смущающие и потенциально вызывающие судебные иски предубеждения ИИ. Награда — это некоторая сумма в долларах, которую мы назовем X. Вместо того, чтобы претендовать на награду, охотник за головами делает что-то вроде странной провокации программы-вымогателя. Если вы заплатите охотнику за головами сумму, в десять раз превышающую X, или, может быть, небесный предел, они расскажут вам о предвзятости ИИ. У вас есть время до полуночи воскресенья, чтобы ответить. После этого момента предубеждения ИИ станут видны всем. Ой, подлое затруднительное положение.

В-пятых, последними являются так называемые кибермошенники «hack to return», которые, украв кучу онлайн-бабла, решают раскаяться и вернуть часть награбленного нечестным путем трофея. Компания, получившая частичный возврат своих денег, затем готова рассматривать оставшуюся украденную сумму как награду постфактум, вознаграждаемую ворам. Кажется, что все «выигрывают» в том, что основная часть средств возвращается, а киберпреступников при этом не преследуют по закону, плюс они получают пиратское вознаграждение в придачу. Является ли это предусмотрительным или коварным увековечением противоправных действий?

Я понимаю, что некоторые из вас могут сказать, что никто не должен выпускать ИИ, в котором есть какие-либо предубеждения. Казалось бы, это решает всю эту дилемму о том, использовать ли охотников за головами с предубеждениями ИИ или нет. Только не попадите в ситуацию с наградой. Убедитесь, что ваши разработчики ИИ поступают правильно и не допускают предвзятости ИИ в своих системах ИИ. Возможно, используйте консультантов для перепроверки. По сути, делайте все, что вам нужно, чтобы никогда не думать об этих охотниках за головами, склонных к предвзятости ИИ, и не просить их присоединиться к столу.

Да, это казалось бы вполне разумным. Проблема в том, что это также немного мечтательно. Сложность многих систем искусственного интеллекта настолько велика, что гарантировать, что не возникнет ни одной унции предубеждений ИИ, будет трудно. Вдобавок ко всему, некоторые системы искусственного интеллекта специально разработаны для того, чтобы приспосабливаться и «обучаться» по ходу дела. Это означает, что в какой-то момент в будущем созданный вами ИИ, который, давайте сначала притворимся, что он был чистым и лишенным предубеждений, может тяготеть к воплощению предубеждений (я не имею в виду антропоморфный способ, как я объясню далее, когда мы продолжайте эту тему).

Те, кто одобряет охоту за ошибками в программном обеспечении, склонны утверждать, что предлагать такие награды имеет смысл. Мы можем рассмотреть их обоснование и посмотреть, применимо ли оно и к сфере предубеждений ИИ.

Сторонники вознаграждений за ошибки подчеркивают, что вместо того, чтобы пытаться делать вид, что в вашей системе нет никаких дыр, почему бы не поощрять их обнаружение, делая это «контролируемым» образом? Напротив, без такого вознаграждения вы могли бы просто надеяться и молиться, чтобы случайно никто не нашел дыру, но если вместо этого вы предлагаете награду и говорите тем, кто найдет дыру, что они будут вознаграждены, это предлагает шанс затем укрепить дыру самостоятельно, а затем помешать другим тайно найти ее в какой-то более поздний момент времени.

То же самое можно сказать и о предвзятости ИИ. Если вы предложите достаточную награду, надеюсь, охотники за головами обратят ваше внимание на обнаружение предубеждений ИИ. Затем вы сможете справиться с предубеждениями ИИ относительно тихо и размеренно. Это может впоследствии предотвратить гораздо большую и более серьезную проблему, а именно то, что кто-то другой обнаружит предвзятость ИИ в вашем ИИ и вопит об этом до небес.

Как правило, фирма, желающая включить усилия по поиску ошибок, должна внедрить Политику раскрытия уязвимостей (VDP). VDP указывает, как следует находить ошибки и сообщать о них фирме, а также как охотнику будет предоставлено вознаграждение или вознаграждение. Обычно VDP требует, чтобы охотник в конечном итоге подписал соглашение о неразглашении информации (NDA), чтобы он не раскрывал другим информацию о том, что он нашел.

Идея использования NDA с ​​охотниками за головами вызывает некоторые споры. Хотя, возможно, для компании, предлагающей вознаграждение, имеет смысл хранить молчание о найденных экспозициях, говорят, что это также подавляет общую осведомленность о таких ошибках. Предположительно, если разрешить говорить об ошибках в программном обеспечении, это потенциально поможет безопасности других систем в других фирмах, которые затем укрепят свои риски. Некоторые охотники за головами не подписывают соглашение о неразглашении частично из-за желания общественности, а частично из-за попытки скрыть свою личность. Имейте также в виду, что аспект NDA обычно не возникает до тех пор, пока охотник не заявляет, что он нашел ошибку, а не требует ее заранее.

Некоторые VDP предусматривают, что соглашение о неразглашении действует только в течение ограниченного периода времени, позволяя фирме сначала найти решение очевидной дыры, а затем позволить более широкое раскрытие информации о ней. Как только дыра затыкается, фирма разрешает ослабить NDA, чтобы остальной мир мог узнать об ошибке. Сообщается, что типичное время устранения багов, найденных в ходе охоты за головами, составляет около 15-20 дней, когда фирма хочет исправить их сразу, в то время как в других случаях это может растянуться до 60-80 дней. С точки зрения оплаты охотнику за головами, так называемого времени оплаты, после того, как дыра была подтверждена как действительно существующая, по сообщениям, выплаты за вознаграждение, как правило, составляют около 15-20 дней для небольших экземпляров и около 50-60 дней. дней для более крупных экземпляров (они постоянно меняются в отраслевых показателях и упоминаются только в качестве иллюстрации).

Должен ли ИИ предвзято относиться к охотникам за головами, чтобы они также участвовали в VDP и имели дело с NDA?

Вы можете получить да и нет на этот вопрос. Да, некоторые фирмы должны пойти по этому пути. Нет, вы не обязательно решите пойти по этому пути. Факторы включают в себя размер и характер ИИ, потенциальную возможность воздействия любых предубеждений ИИ, а также множество других этических, юридических и деловых соображений, которые имеют значение.

Я мог бы добавить, что создание охоты за головами для предубеждений ИИ вашего ИИ — это гораздо более сложная задача, чем вы могли бы предположить на первый взгляд.

Мы начнем с огромной вероятности того, что вы будете поражены охотниками за головами, предвзятыми ИИ.

Прямо сейчас вам было бы трудно найти многих, у которых была бы такая визитная карточка. Вокруг не так много. В этом отношении наступили дни Дикого Запада. Но если идея предубеждений ИИ в охоте за головами приживется, особенно когда награды обильны и щедро вознаграждаются, вы можете поспорить, что все нырнут в бассейн охоты за предубеждениями.

Вы хотите, чтобы всякая сволочь преследовала предвзятость ИИ в вашей системе ИИ? Вы получите несколько берущих, которые на самом деле являются экспертами в такого рода вещах. Вы получите других берущих, которые являются любителями и могут устроить беспорядок или поплакать волком. Следующее, что вы знаете, любой, кто может произнести слово «искусственный интеллект», придет, чтобы выкопать вашу золотую жилу системы искусственного интеллекта в поисках этих драгоценных золотых самородков, предвзятых к искусственному интеллекту. Золотая лихорадка продолжается. Это может быть не очень хорошо для вас.

Вам нужно будет тщательно изучить заявки охотников за головами. В заявленных утверждениях будет много «шума» в том смысле, что многие из заявленных предубеждений ИИ не существуют, хотя охотник за головами настаивает на том, что некоторые из них были обнаружены. Представьте, сколько труда потребуется вашим командам искусственного интеллекта, чтобы изучить заявки на вознаграждение, изучить обоснованность каждого из них, а затем потенциально обсудить с охотником за головами, было ли обнаружено золото или нет.

Кто-то скажет, что это еще одна причина сделать все самостоятельно. Вы неизбежно можете обнаружить, что награда доставляет больше хлопот, чем того стоит.

Вот еще вопрос для размышления. Как охотники за головами узнают, как выглядит предвзятость ИИ? По сути, без какого-либо подобия того, что нужно искать, любой блестящий камень можно было бы заявить как демонстрирующий предвзятость ИИ в предполагаемой выкапываемой золотой жиле ИИ.

Предположим, во времена Дикого Запада вы предложили награду за поимку Билли Кида (известного преступника). Если вы сделали это и не включили изображение того, как выглядел Билли, представьте себе количество охотников за головами, которые могли бы затащить в офис шерифа кого-то, кого они надеялись или считали Билли Кидом. Вы можете быть завалены фальшивыми Билли. Это плохо, поскольку вам, по-видимому, нужно смотреть на каждого, задавать уточняющие вопросы и пытаться установить, действительно ли этот человек был Билли или нет.

Дело в том, что для создания вознаграждения за предвзятость ИИ было бы разумно попытаться уточнить, из чего, по вашему мнению, состоят предубеждения ИИ. Это требует калибровки типа Златовласки. Вы не хотите быть настолько ограниченным, чтобы охотники за головами упускали из виду предубеждения ИИ только потому, что они не вписываются в ваше установленное определение, и вы также не хотите, чтобы они кричали «Эврика!» в каждом кусочке предвзятости ИИ, который они случайно обнаружат.

Вам понадобится только правильный баланс Златовласки того, из чего состоят предубеждения ИИ, и, таким образом, предоставьте предпочтительно явные направления их.

Большая часть этой охоты за головами с предубеждением ИИ будет сосредоточена на системах машинного обучения (ML) и глубокого обучения (DL) на основе ИИ. Это имеет смысл, поскольку распространенность ML/DL растет, плюс, похоже, у него есть некоторые из наиболее вероятных проблем, связанных с необоснованными предубеждениями ИИ.

Эти исследователи определяют, насколько существенными могут быть попытки охоты за наградами, связанные с искусственным интеллектом, особенно в контексте ML/DL: «Со временем сообщества разработчиков программного обеспечения и безопасности разработали «награды за обнаружение ошибок» в попытке изменить аналогичную динамику между разработчиками систем и их критиками. (или хакеров) к более интерактивным и продуктивным целям. Есть надежда, что путем преднамеренного приглашения внешних сторон для поиска программных или аппаратных ошибок в их системах и часто предоставления денежных стимулов для этого будет развиваться более здоровая и быстро реагирующая экосистема. Для сообщества машинного обучения естественно рассмотреть аналогичный подход «предубеждения» к своевременному обнаружению и исправлению моделей и систем с предвзятостью или другим нежелательным поведением. Вместо того, чтобы находить ошибки в программном обеспечении, внешним сторонам предлагается найти предубеждения — например, (демографические или другие) подгруппы входных данных, на которых обученная модель работает хуже, — и получают за это вознаграждение» (в статье «Алгоритмическая структура для смещения Bounties» Айры Глобус-Харрис, Майкла Кирнса и Аарона Рота).

В исследовательской статье авторы излагают предлагаемый подход к тому, какие предубеждения ИИ могут искать охотники за головами. Также есть указание на то, как оценивать претензии охотников за головами, связанные с обнаруженными таким образом предполагаемыми предубеждениями ИИ. В соответствии с моими предыдущими замечаниями здесь, велика вероятность, что вы получите надуманные заявления и вам придется отделять зёрна от плевел.

Прежде чем перейти к еще большему количеству мяса и картошки о диких и необъяснимых соображениях, лежащих в основе поиска предубеждений ИИ, давайте установим некоторые дополнительные основы по глубоко интегральным темам. Нам нужно кратко окунуться в этику ИИ и особенно в появление машинного обучения (МО) и глубокого обучения (ГО).

Возможно, вы смутно осознаете, что один из самых громких голосов в наши дни в области ИИ и даже за его пределами состоит в том, чтобы требовать большего подобия этического ИИ. Давайте посмотрим, что означает обращение к этике ИИ и этичному ИИ. Кроме того, мы рассмотрим, что я имею в виду, когда говорю о машинном обучении и глубоком обучении.

Один конкретный сегмент или часть этики ИИ, которая привлекает большое внимание средств массовой информации, состоит из ИИ, который демонстрирует неблагоприятные предубеждения и несправедливость. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в неэтичную пропасть (см. мой анализ таких возможностей на ссылка здесь).

Через мгновение я поделюсь с вами некоторыми всеобъемлющими принципами, лежащими в основе этики ИИ. Есть много таких списков, плавающих то здесь, то там. Можно сказать, что единого списка универсальной привлекательности и согласованности пока не существует. Это неприятная новость. Хорошая новость заключается в том, что, по крайней мере, существуют легкодоступные списки этики ИИ, и они, как правило, очень похожи. Все это говорит о том, что с помощью своего рода обоснованной конвергенции мы находим путь к общей общности того, из чего состоит этика ИИ.

Во-первых, давайте кратко рассмотрим некоторые из общих этических принципов ИИ, чтобы проиллюстрировать, что должно быть жизненно важным соображением для любого, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологий, процессов разработки и методов работы, применимых к возможностям ИИ, включая прозрачные и проверяемые методологии, источники данных, процедуры проектирования и документацию.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как указывалось ранее, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна разбираться в принципах этики ИИ и соблюдать их.

Давайте также убедимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели дико рассуждать о чувствующий AI, эта дискуссия может пойти в совершенно ином направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхразумный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Давайте будем более приземленными и рассмотрим современный вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Давайте теперь вернемся к теме поиска предвзятости ИИ.

Для тех из вас, кто рассматривает возможность охоты за головами с предвзятостью ИИ, вот мои рекомендуемые семь ключевых шагов о том, как лучше всего действовать:

1) Оценивать. Оцените пригодность охоты за головами с предвзятостью ИИ для ваших обстоятельств и в соответствии с вашими системами ИИ.

2) Проект. Разработайте соответствующий подход к охоте за головами с предвзятостью ИИ

3) Осуществлять. Реализуйте и опубликуйте свои усилия по охоте за головами с предвзятостью ИИ

4) Поиск. Подайте заявки на вознаграждение с уклоном от ИИ и обработайте их соответствующим образом.

5) фиксированный. Исправьте или настройте свой ИИ в соответствии с обнаруженными предвзятостью ИИ.

6) Регулировать. При необходимости отрегулируйте предвзятость ИИ в охоте за головами.

7) Прекратите. Прекратите охоту за головами с предвзятостью ИИ, когда в ней больше нет необходимости.

Обратите внимание, что в моей серии описанных выше шагов я упоминаю, что вы, вероятно, захотите исправить или настроить свой ИИ, основываясь на том, что заявленная предвзятость ИИ действительно существует в вашей системе ИИ. Это имеет большой смысл. Вы почти наверняка захотите укрепить любые обнаруженные предубеждения ИИ. Подумайте о юридических (и этических) последствиях, если вы этого не сделаете. Одно дело утверждать, что вы не знали о существовании предвзятости ИИ и, следовательно, позволяли ему существовать, и гораздо более шаткое основание — зафиксировать, что вы знали о предвзятости ИИ и ничего с этим не сделали.

Характер и степень исправления или корректировки ИИ, конечно же, будут зависеть от того, насколько значительными были предубеждения ИИ и насколько глубоко укоренились проблемы. Если вам повезет, возможно, небольшое количество изменений в ИИ исправит ситуацию. Другой потенциал заключается в том, что вам может потребоваться полностью переписать ИИ. Для ИИ типа ML/DL может потребоваться вернуться к чертежной доске и начать все заново с совершенно новым набором данных и очищенной моделью ML/DL. Я обсуждал появление ИИ извержения или уничтожения ИИ как потенциальное средство правовой защиты от сомнительного ИИ, см. ссылка здесь.

Один из вопросов, над которым стоит задуматься, заключается в том, хотите ли вы, чтобы охотники за головами делали что-то большее, чем просто выявление предубеждений ИИ. Например, вы можете подсластить вознаграждение, указав, что предлагаемые исправления также приветствуются. Предвзятость ИИ найденный охотником за головами может быть выплачено одно указанное вознаграждение или приз. Если охотник за головами также может предложить жизнеспособную фиксировать из-за предвзятости ИИ им может быть предоставлено дополнительное вознаграждение.

Некоторые утверждают, что это слишком далеко. Они говорят, что вы должны сосредоточить охотников за головами на предвзятости ИИ исключительно на поиске предубеждений ИИ. Вы создадите кучу нежелательных неблагоприятных последствий, предложив им также предложить исправления. Держите вещи простыми. Цель состоит в том, чтобы привлечь как можно больше внимания к выявлению предубеждений ИИ, чтобы вы могли решить, что делать дальше. Не мутите воду.

Сложный аспект, который необходимо выяснить, влечет за собой величину вознаграждения или приза для охотников за головами, которые действительно обнаруживают предвзятость ИИ. Вы хотите, чтобы выигрыш был демонстративным. Без достаточно высокой награды у вас не будет много охотников за головами, или они не будут особенно стремиться искать предубеждения ИИ в ваших системах ИИ. Вместо этого они могут сосредоточиться на других усилиях по вознаграждению за предвзятость ИИ.

Кроме того, как уже упоминалось, вы хотите попытаться подавить стремление охотников за головами превратить свои открытия, предвзятые ИИ, в другие формы золота. Если награда кажется мизерной, это может подтолкнуть охотников за головами к поиску других более высоких выплат. Они могут применить к вам программу-вымогатель. Они могут заявить, что у них есть сочная предвзятость к ИИ, о которой конкуренту было бы интересно узнать и которую они могли бы использовать против вашей фирмы, рекламируя, что предвзятость к ИИ существует в вашем ИИ. Таким образом, они продают обнаруженную предвзятость ИИ тому, кто больше заплатит. И так далее.

Предполагается, что если вы устанавливаете вознаграждение в чрезвычайно высоком диапазоне, вы также напрашиваетесь на потенциальные проблемы. Это может привлечь всевозможных сумасшедших охотников за головами. Они, в свою очередь, могут наводнить социальные сети смутными заявлениями о том, что они обнаружили множество предубеждений ИИ, делая это для собственной саморекламы и фактически не выявляя никаких предубеждений ИИ. В некотором смысле, ваша повышенная награда непреднамеренно проливает свет на ваш ИИ и подталкивает множество неотесанных мотыльков, соответственно пагубно привлекаемых светящимся лучом света.

Еще одно соображение касается доступности вашего ИИ.

Чтобы включить возможность охоты за головами ИИ, охотники за головами должны получить достаточный доступ к вашему ИИ. У них не будет большой удачи в обнаружении предубеждений ИИ, если они полностью заблокированы. Но вы не хотите отказываться от своей защиты от кибербезопасности, поскольку это может полностью скомпрометировать вашу систему искусственного интеллекта.

Вы можете попытаться заставить охотников за головами подписать различные юридически обязательные декларации, а затем предоставить им необходимый доступ. Некоторым охотникам за головами такой подход не понравится. Их точка зрения состоит в том, что они будут делать только то, что позволяет любой общедоступный и открытый путь. Они, так сказать, свободные индивидуалисты и не любят, когда их оседлали. Заставив их поставить свою подпись на пугающих юридических документах, многие из них будут избегать поиска предубеждений ИИ в вашем ИИ. Или они могут разозлиться на вашу юридическую перчатку и решить, что они увидят, что они могут найти с помощью общедоступных средств, делая это, возможно, с резким желанием показать вам, насколько вы на самом деле уязвимы.

У меня есть еще один ракурс, от которого у вас может закружиться голова.

Охотник за головами, разбирающийся в ИИ, может решить разработать систему ИИ, которая сможет тщательно изучить ваш ИИ и, возможно, обнаружить предубеждения ИИ в вашем ИИ. Это производитель инструментов, предпочитающий делать инструмент для выполнения работы, а не выполнять ручной труд самостоятельно. Вместо того, чтобы кропотливо изучать ваш ИИ, охотник за головами, разбирающийся в ИИ, тратит свое время на придумывание инструмента ИИ, который делает то же самое. Затем они используют инструмент ИИ на вашем ИИ. Прелесть также в том, что они, по-видимому, могут повторно использовать инструмент ИИ на любом другом, который также предлагает возможность охоты за головами на их соответствующем ИИ.

Я знаю, что вы, вероятно, думаете. Если можно разработать инструмент ИИ для проверки ИИ на предвзятость, создатель ИИ, который тщательно изучается на предмет предвзятости ИИ, должен либо создать такой инструмент ИИ, либо купить его для собственного использования. Теоретически, им тогда не нужно бороться со всем карнавалом охотников за головами, для начала. Просто используйте ИИ, чтобы найти их предубеждения ИИ.

Да, это то, что, как вы можете ожидать, постепенно возникнет. Между тем, основа этих усилий, вероятно, будет состоять из разработчиков ИИ, занимающихся охотой за головами. Они могут использовать различные инструменты, чтобы помочь своим усилиям, но в краткосрочной перспективе они вряд ли просто бездумно включат инструмент ИИ в автоматический режим и вздремнут, чтобы инструмент взял на себя всю предвзятость ИИ, охотясь за ними.

Мы еще не там.

Могу поспорить, что на данном этапе этой серьезной дискуссии вам нужны наглядные примеры, которые могли бы продемонстрировать эту тему. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-либо об использовании предвзятой охоты за головами ИИ, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAADA
S (Расширенные системы помощи водителю).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Беспилотные автомобили и охота за головами с предвзятостью ИИ

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я надеюсь, что это дает достаточное количество предостережений, чтобы обосновать то, что я собираюсь рассказать.

В своих колонках я уже подробно обсуждал использование охотников за головами, ориентированных на жуков, в области автономных транспортных средств и беспилотных автомобилей. Такой подход действительно имел место в этой нише. Есть обычные дебаты о том, является ли это здоровой идеей или нет. Усилия обычно носили ограниченный характер, часто держались относительно тихо.

Подобный дискурс может возникнуть, когда акцент сместится на поиск предубеждений ИИ, а не на поиск системных ошибок как таковых. Некоторые предполагают, что это чертовски, если вы делаете, черт возьми, если вы не загадываете.

Вот почему.

Во-первых, чтобы внести ясность, существует множество способов, которыми беспилотные транспортные средства и автомобили с автоматическим управлением будут подвергаться сдерживанию предубеждений ИИ, см. мой репортаж на ссылка здесь и ссылка здесь, Просто назвать несколько. Автопроизводителям и компаниям, производящим самоуправляемые автомобили, было бы разумно попытаться предотвратить появление этих предубеждений ИИ в их системах ИИ. Юридическая и этическая огненная буря против таких фирм, несомненно, будет интенсивной.

Является ли использование охоты за головами с предубеждением ИИ подходящим подходом в этом конкретном контексте?

Один из ответов заключается в том, что да, это будет удобно и предоставит множество «бесплатных» наборов новых глаз, чтобы попытаться уловить любые встроенные предубеждения ИИ в беспилотном автомобиле с искусственным интеллектом или тому подобное. Большинство разработчиков ИИ, создающих беспилотные автомобили, заняты созданием ИИ, который может безопасно вести машину из точки А в точку Б. Они озабочены этой основной возможностью и не имеют ни времени, ни внимания к каким-либо предубеждениям ИИ, которые могут быть где-то в глубине души. их ИИ.

Другой ответ заключается в том, что нет, следует категорически избегать разрешения охоты за головами для автономных транспортных средств и беспилотных автомобилей на любом основании, будь то ошибки или предвзятость ИИ. Аргумент состоит в том, что эти транспортные средства и их ИИ имеют калибр жизни или смерти. Любые действия с ИИ могут быть разрушительными для ИИ и повлиять на то, что делает система управления ИИ.

Контраргументом этому последнему пункту является то, что охотники за головами должны быть не в состоянии изменить ИИ, который они изучают. Таким образом, нет никакой опасности, что они вмешаются в ИИ и заставят ИИ в этом контексте внезапно превратиться в сумасшедшую управляющую систему ИИ. Охотники за головами имеют доступ только для чтения. Позволить им пойти дальше было бы в высшей степени глупо и огромной ошибкой.

Контраргумент на этот контраргумент заключается в том, что, позволяя и поощряя охотников за головами исследовать ваш ИИ, все становится рискованным. Эти охотники за головами могут найти способы использовать любые обнаруженные ошибки или предубеждения. Эти эксплойты, в свою очередь, могут иметь коварные цели. Вам лучше не приглашать, так сказать, «грабителей» в свой дом. После того, как они обработают сустав, у вас в конечном итоге возникнет куча проблем.

Для тех, у кого есть системы ИИ масштаба меньше, чем жизнь или смерть, считается, что последствия неудачной охоты за головами гораздо менее рискованны. Может быть, так. С другой стороны, если фирма вложила свои деньги в систему искусственного интеллекта, которую охотники за головами сумели узурпировать, вы можете предположить, что репутационный ущерб и другие потенциальные убытки все равно пострадают.

Бесплатных обедов не бывает, когда дело доходит до охоты за головами с предубеждением ИИ.

Быстрое заключительное замечание на данный момент.

Когда на Диком Западе разыскивали печально известного преступника Джесси Джеймса, был напечатан плакат «Разыскивается», в котором предлагалась награда в размере 5,000 долларов за его поимку (с указанием «живой или мертвый»). По тем временам это была довольно крупная сумма денег. Один из членов его собственной банды решил застрелить Джесси и получить награду. Я полагаю, это показывает, насколько эффективной может быть награда.

Будет ли использование предвзятых охотников за головами с искусственным интеллектом хорошим или плохим?

Если вы решите создать охотника за головами с предвзятым отношением к ИИ, я бы посоветовал вам держать глаза широко открытыми и все время оглядываться через плечо. Это благоразумно для вас и вашего ИИ. Вы никогда не знаете, что может случиться, в том числе то, что коварный охотник за головами каким-то образом тайком вставит предвзятость ИИ в ваш ИИ и закричит на весь мир, что они обнаружили недобросовестную предвзятость ИИ в вашем ИИ. Возможно, делая это в наглой и чрезмерной попытке получить награду за награду, а также провозглашая себя героем, который, по сути, получил хваленого Джесси Джеймса.

Если подумать, разумному ИИ, вероятно, не понравится эта идея сбивающего с толку живого или мертвого обеспечения, как можно томно предположить.

Источник: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- этически-злые-полностью-автономные-системы-благоразумны-или-бесполезны/