Этика ИИ и надвигающийся фиаско, когда закон Нью-Йорка, требующий аудита предубеждений ИИ, начинает действовать

Иногда самые лучшие намерения сокрушаются из-за недостаточного внимания к деталям.

Яркий пример этой мудрости мудреца достоин изучения.

В частности, давайте внимательно рассмотрим новый закон Нью-Йорка об искусственном интеллекте (ИИ), который вступит в силу 1 января 2023 года. как только закон вступит в силу. Хотя беды не преднамеренные, они, несомненно, произойдут в результате плохого проектирования или, по крайней мере, недостаточного указания необходимых деталей, которые должны были и могли быть легко придуманы и четко сформулированы.

Я имею в виду местный закон, принятый в прошлом году 11 декабря 2021 года в уважаемом городе Нью-Йорке, который должен вступить в силу в начале 2023 года. В настоящее время мы находимся всего в нескольких месяцах от великого пробуждения, которое этот новый закон взбудоражит. Я хотел бы сказать, что амбициозный закон будет беспрепятственно делать то, что он должен делать, а именно бороться с потенциальными предубеждениями ИИ в сфере принятия решений о трудоустройстве. Увы, хотя намерение похвально, я покажу вам зияющие лазейки, упущения и отсутствие конкретики, которые подорвут этот закон и сведут с ума работодателей, стремящихся справиться с непреднамеренными, но весьма неблагоприятными его последствиями.

Вы могли бы сказать, что это классическая проблема продвижения вперед с недоработанным планом. Почитаемое изречение, приписываемое Дуайту Эйзенхауэру, заключалось в том, что план — ничто, а планирование — все. Короче говоря, этот конкретный закон станет ярким примером того, как законодатели иногда могут ошибаться, не продумывая заранее необходимые детали для того, чтобы закон достиг своих похвальных целей и мог быть принят безусловно разумным и благоразумным образом.

Ждет фиаско.

Оправдания уже выстраиваются.

Некоторые ученые мужи говорят, что вы никогда не сможете полностью определить закон и должны увидеть его в действии, чтобы понять, какие аспекты закона необходимо изменить (общий трюизм, который в данном случае искажается непропорционально). Кроме того, они горячо утверждают, что это особенно актуально, когда речь идет о появляющейся новизне законов, связанных с ИИ. Черт возьми, увещевают они, ИИ — это высокотехнологичное волшебство, о котором мы, как законодатели, мало что знаем, поэтому логика гласит, что лучше иметь что-то на юридических страницах, чем не иметь там вообще ничего.

На первый взгляд это звучит убедительно. Однако копните глубже, и вы поймете, что это потенциально ерунда, в том числе и особенно в случае с этим конкретным законом. Этот закон можно было бы сформулировать более искусно и разумно. Нам не нужны волшебные зелья. Нам не нужно ждать, пока возникнет хаос. Во время разработки закона можно было установить правильные формулировки и детали.

Давайте также убедимся, что неуместная, расплывчатая идея о том, что аспекты усыновления нельзя предугадать заранее, до боли нелепа. Это легальная тарабарщина самого бессодержательного размахивания руками. Существует множество уже известных соображений о том, как бороться с предубеждениями ИИ и проводить проверки ИИ, которые можно было бы легко включить в этот закон. То же самое можно сказать и о любой другой юрисдикции, рассматривающей возможность принятия такого закона. Не обманывайтесь, полагая, что мы должны слепо бросать законную стрелу на волю ветра и страдать от мучений. Капля правового мышления в сочетании с соответствующим пониманием ИИ уже осуществима, и нет необходимости хвататься только за соломинку.

Я мог бы добавить, что еще есть время, чтобы исправить это. Часы все еще тикают. Возможно, удастся проснуться до того, как прозвенит будильник. Необходимый совет может быть получен и обнародован. Времени мало, поэтому этому нужно уделить должное внимание.

В любом случае, пожалуйста, убедитесь, что вы улавливаете ударение здесь.

Позвольте мне горячо пояснить, что такой закон, касающийся предубеждений ИИ, действительно заслуживает внимания. Я объясню, почему на мгновение. Я также опишу проблемы, связанные с этим новым законом, который, по мнению многих, является первым в истории закона (существуют и другие варианты, возможно, не совсем такие, как этот).

Действительно, можно ожидать, что подобные законы будут постепенно появляться по всей стране. Одна заметная проблема заключается в том, что, если эта попытка первопроходца в Нью-Йорке пойдет плохо, остальная часть страны может с осторожностью относиться к принятию таких законов. Это не тот урок, который нужно усвоить. Правильный урок состоит в том, что если вы собираетесь писать такой закон, то делайте это разумно и с должным вниманием.

Законы, брошенные в книги без надлежащей проверки, могут быть весьма расстраивающими и создавать всевозможные последующие трудности. В этом смысле, пожалуйста, не выплескивайте ребенка вместе с водой из ванны (старая поговорка, вероятно, должна быть убрана). Суть в том, что такие законы могут быть действительно продуктивными и охранительными, если они правильно составлены.

Этот конкретный, к сожалению, не собирается делать это за воротами.

Все виды панических указаний обязательно исходят от исполнителей и блюстителей закона. Отметьте в своих календарях конец января и февраль 2023 года, чтобы увидеть, как начнется схватка. Указание пальцем будет чрезвычайно интенсивным.

Никто сейчас особенно не кричит, потому что закон еще не приземлился на головы работодателей, которых новый закон оглушит. Представьте, что это своего рода землетрясение, образно говоря, которое должно произойти в первые недели 2023 года. Мало кто готовится к землетрясению. Многие даже не знают, что землетрясение уже занесено в календарь. При всем при этом, как только произойдет землетрясение, многие очень удивленные и потрясенные предприятия будут задаваться вопросом, что произошло и почему должен был произойти беспорядок.

Все это имеет особенно важные последствия для этики ИИ и предлагает удобное окно для извлеченных уроков (даже до того, как все уроки произойдут), когда дело доходит до попытки законодательно закрепить ИИ. С моим постоянным и обширным освещением этики ИИ, этического ИИ, а также закона об ИИ среди юридических аспектов управления ИИ можно найти по адресу ссылка здесь и ссылка здесь, просто назвать несколько.

Эта юридическая история о горе связана с возникшими в прошлом опасениями по поводу современного ИИ и особенно использования машинного обучения (ML) и глубокого обучения (DL) как формы технологии и того, как она используется. Видите ли, есть случаи использования ML/DL, которые, как правило, включают в себя антропоморфизацию ИИ широкой публикой, веря или предпочитая предполагать, что ML/DL является либо разумным ИИ, либо близким к нему (это не так). Кроме того, ML/DL может содержать аспекты сопоставления вычислительных шаблонов, которые нежелательны, откровенно неуместны или незаконны с точки зрения этики или закона.

Возможно, было бы полезно сначала уточнить, что я имею в виду, говоря об ИИ в целом, а также дать краткий обзор машинного обучения и глубокого обучения. Существует большая путаница в отношении того, что означает искусственный интеллект. Я также хотел бы познакомить вас с принципами этики ИИ, которые будут особенно важны для остальной части этого дискурса.

Заявление об ИИ

Давайте удостоверимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ.

У нас этого нет.

Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой Сингулярностью, см. мое освещение на ссылка здесь).

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение и глубокое обучение, которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

Частично проблема заключается в нашей тенденции антропоморфизировать компьютеры и особенно ИИ. Когда кажется, что компьютерная система или ИИ действуют так, как мы ассоциируем с человеческим поведением, возникает почти непреодолимое желание приписать системе человеческие качества. Это обычная ментальная ловушка, которая может поймать даже самого непримиримого скептика в отношении шансов на обретение разума.

В какой-то степени именно поэтому этика ИИ и этический ИИ являются такой важной темой.

Предписания этики ИИ заставляют нас сохранять бдительность. Технологи ИИ могут время от времени увлекаться технологиями, особенно оптимизацией высоких технологий. Они не обязательно учитывают более крупные социальные последствия. Имея отношение к этике ИИ и применяя его неотъемлемо к разработке и внедрению ИИ, жизненно важно для создания надлежащего ИИ, включая оценку того, как этика ИИ принимается фирмами.

Помимо использования принципов этики ИИ в целом, возникает соответствующий вопрос о том, должны ли мы иметь законы, регулирующие различные виды использования ИИ. На федеральном уровне, уровне штатов и на местном уровне обсуждаются новые законы, касающиеся диапазона и характера разработки ИИ. Усилия по разработке и принятию таких законов носят постепенный характер. Этика ИИ служит, по крайней мере, временной мерой и почти наверняка в какой-то степени будет непосредственно включена в эти новые законы.

Имейте в виду, что некоторые категорически утверждают, что нам не нужны новые законы, касающиеся ИИ, и что наших существующих законов достаточно. Они предупреждают, что если мы примем некоторые из этих законов об ИИ, мы убьем золотого гуся, пресекая достижения в области ИИ, которые предлагают огромные социальные преимущества. См., например, мое покрытие на ссылка здесь.

В предыдущих колонках я рассказывал о различных национальных и международных усилиях по разработке и принятию законов, регулирующих ИИ, см. ссылка здесь, Например. Я также рассмотрел различные принципы и руководства по этике ИИ, которые были определены и приняты различными странами, включая, например, усилия Организации Объединенных Наций, такие как свод этических норм ИИ ЮНЕСКО, принятый почти в 200 странах, см. ссылка здесь.

Вот полезный краеугольный список критериев или характеристик этического ИИ, касающихся систем ИИ, которые я ранее внимательно изучал:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Эти принципы этики ИИ должны серьезно использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только кодеры» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как уже подчеркивалось здесь, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна быть осведомлена и соблюдать этические предписания ИИ.

Давайте не будем приземляться и сосредоточимся на сегодняшнем вычислительном неразумном ИИ.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Я считаю, что теперь я подготовил почву для достаточного обсуждения роли ИИ в рубрике тихого отказа от курения.

ИИ, который используется при принятии решений о трудоустройстве

Закон города Нью-Йорка посвящен теме принятия решений о трудоустройстве.

Если вы в последнее время пытались устроиться на современную работу почти в любой точке мира, вы, вероятно, столкнулись с элементом, основанным на искусственном интеллекте, в процессе принятия решений о трудоустройстве. Конечно, вы можете не знать, что он там, поскольку он может быть скрыт за кулисами, и у вас не будет готового способа определить, была ли задействована система ИИ.

Обычная крылатая фраза, используемая для обозначения этих систем ИИ, заключается в том, что они считаются Автоматизированные инструменты принятия решений о трудоустройстве, сокращенно АЕДТ.

Давайте посмотрим, как закон Нью-Йорка определяет эти инструменты или приложения, которые влекут за собой принятие решений о трудоустройстве:

  • «Термин «автоматизированный инструмент принятия решений о приеме на работу» означает любой вычислительный процесс, основанный на машинном обучении, статистическом моделировании, анализе данных или искусственном интеллекте, который выдает упрощенные выходные данные, включая оценку, классификацию или рекомендацию, которые используются для существенной помощи или заменить дискреционное принятие решений на принятие решений о трудоустройстве, которые затрагивают физических лиц. Термин «автоматизированный инструмент принятия решений о приеме на работу» не включает инструмент, который не автоматизирует, не поддерживает, существенно не помогает или не заменяет дискреционные процессы принятия решений и который не оказывает существенного влияния на физических лиц, включая, помимо прочего, фильтр нежелательной почты, брандмауэр, антивирусное программное обеспечение, калькулятор, электронная таблица, база данных, набор данных или другой набор данных» (NYC, Int 1894-2020, подраздел 25, раздел 20-870).

Я кратко рассмотрю эту формулировку, поскольку она жизненно важна для всего характера и сферы действия закона.

Во-первых, как я неоднократно заявлял в своих работах, одно из самых сложных препятствий при написании законов об ИИ состоит в попытке адекватно определить, что означает ИИ. Не существует единственного общепризнанного юридически пуленепробиваемого стандарта, к которому приземлились бы все. Существуют всевозможные определения. Некоторые из них полезны, некоторые нет. Смотрите мои анализы на ссылка здесь.

У вас может возникнуть соблазн подумать, что не имеет особого значения, как мы можем определить ИИ. Извините, но вы ошибаетесь.

Проблема в том, что если определение ИИ нечетко указано в данном законе, это позволяет тем, кто разрабатывает ИИ, пытаться обойти закон, заявляя, что их программное обеспечение или система не содержат ИИ. Они будут смело утверждать, что закон не распространяется на их программное обеспечение. Точно так же кто-то, использующий программное обеспечение, может также заявить, что закон не относится к нему, потому что используемое им программное обеспечение или система не подпадает под определение ИИ, указанное в законе.

Люди такие хитрые.

Один из самых хитрых способов избежать удара по закону, который вам не нравится, — это заявить, что закон на вас не распространяется. В этом случае вы попытаетесь разобрать определение AEDT по частям. Ваша цель, предполагая, что вы не хотите, чтобы закон был на вашей спине, будет состоять в том, чтобы юридически доказать, что определение, данное в законе, не соответствует тому, что представляет собой ваша компьютерная система, связанная с работой, или что она делает.

Такому закону можно как помочь, так и подчас подорвать его, преднамеренно включив в определение исключительные оговорки.

Взгляните еще раз на определение AEDT, как указано в этом законе. Вы, надеюсь, заметили, что существует исключающая оговорка, в которой говорится: «…не включает инструмент, который не автоматизирует, не поддерживает, существенно не помогает или не заменяет дискреционные процессы принятия решений и который не оказывает существенного влияния на физических лиц…».

С одной стороны, основание для включения такого исключения определенно полезно.

Кажется, это предполагает (с моей точки зрения непрофессионала), что AEDT должен обеспечивать конкретную цель и использоваться по существу. Если AEDT является, скажем так, поверхностным или периферийным, и если решение о приеме на работу по-прежнему принимается руками человека, возможно, используемая программная система не должна рассматриваться как AEDT. Кроме того, если программное обеспечение или система не оказывает «материального» воздействия на физических лиц (людей), то, так сказать, не стоит держаться подальше от огня.

Разумно, вы же не хотите, чтобы закон преувеличивал свои масштабы и распространялся на все, включая кухонную раковину. Это по существу несправедливо и обременительно для тех, на кого закон не был рассчитан. Они могут попасть в болото, которое действует как одна из тех универсальных рыболовных сетей. Предположительно, наши законы должны быть осторожны, чтобы не втягивать невиновных в сферу действия закона.

Все хорошо и хорошо.

Сообразительный адвокат должен понимать, что исключающая оговорка может быть своего рода законной карточкой для выхода из тюрьмы (между прочим, этот конкретный закон предусматривает гражданско-правовые, а не уголовные наказания, поэтому выйти из тюрьмы замечание является просто метафорическим и для пикантной пикантности). Если бы кто-то утверждал, что компания использует AEDT при обработке данных о приеме на работу, одним из первых способов попытаться опровергнуть это утверждение было бы утверждение, что так называемый AEDT на самом деле находится в сфере исключения. Вы можете попытаться показать, что так называемый AEDT не автоматизировать решение о приеме на работу, или это не поддержка решение о приеме на работу, или это не существенно помочь or замещать дискреционные процессы принятия решений.

Затем вы можете пойти по извилистому пути и определить, что означают слова «автоматизировать», «поддерживать», «существенно помогать» или «заменять» в данном контексте. Это довольно удобная юридическая кроличья нора. Можно было бы привести убедительные доводы в пользу того, что программное обеспечение или система, предположительно являющаяся AEDT, является частью исключительных указаний. Поэтому никакого вреда, никакого фола в отношении этого конкретного закона.

Очевидно, что по таким вопросам следует консультироваться с лицензированными адвокатами (здесь не указывается никакого подобия юридической консультации, и это мнение исключительно неспециалистов).

Я хочу сказать, что в этом новом законе будет место для маневра. Комната для маневра позволит некоторым работодателям, которые действительно используют AEDT, возможно, найти лазейку, чтобы обойти использование AEDT. Другая сторона медали заключается в том, что могут быть фирмы, которые не используют AEDT на самом деле и попадут в ловушку этого закона. Можно заявить, что все, что они использовали, действительно было AEDT, и им нужно будет найти способ показать, что их программное обеспечение или системы не подпадают под действие AEDT и подпадают под действие исключения.

Мы можем сделать этот смелый прогноз:

  • Несомненно, будут работодатели, которые сознательно используют AEDT, которые потенциально попытаются уклониться от своих юридических обязанностей.
  • Неизбежно будут работодатели, которые не используют AEDT, увязнув в заявлениях о том, что они используют AEDT, что заставит их делать «дополнительные» усилия, чтобы продемонстрировать, что они не используют AEDT.

Я подробнее остановлюсь на этих многочисленных перестановках и комбинациях, когда мы продвинемся дальше в этом обсуждении. У нас есть еще много земли, чтобы пройти.

Использование AEDT само по себе не является той частью этого вопроса, которая вызывает демонстративные опасения, именно то, как AEDT выполняет свои действия, вызывает юридический гнев. Суть в том, что если AEDT также, возможно, вводит предубеждения, связанные с принятием решений о трудоустройстве, то вы находитесь в потенциально горячей воде (ну, вроде того).

Как мы можем узнать, действительно ли AEDT вносит предубеждения, связанные с ИИ, в усилия по принятию решений о трудоустройстве?

Ответ согласно этому закону заключается в том, что необходимо провести аудит ИИ.

Ранее я часто рассказывал о природе аудитов ИИ и их сути, а также отмечал существующие недостатки и нечетко определенные аспекты, такие как ссылка здесь и ссылка здесь, среди многих других подобных сообщений. Проще говоря, идея состоит в том, что так же, как вы можете провести финансовый аудит фирмы или технологический аудит, связанный с компьютерной системой, вы можете провести аудит системы искусственного интеллекта. Используя специализированные приемы, инструменты и методы аудита, вы исследуете и оцениваете, из чего состоит система ИИ, в том числе, например, пытаетесь выяснить, содержит ли она предубеждения того или иного рода.

Это растущая область внимания.

Вы можете ожидать, что эта область аудита, посвященная аудиту ИИ, будет продолжать расти. Совершенно очевидно, что по мере того, как на рынок будет выпускаться все больше и больше систем ИИ, и, в свою очередь, будет все больше и больше требований к аудиту ИИ. Новые законы помогут в этом. Даже без этих законов будет много аудитов ИИ, поскольку люди и компании заявляют, что они пострадали от ИИ, и будут стремиться предоставить ощутимые документальные доказательства того, что вред имел место и был связан с используемым ИИ.

Аудиторы ИИ будут популярны и пользуются большим спросом.

Это может быть увлекательной работой. Один, возможно, захватывающий элемент влечет за собой погружение в новейший и величайший ИИ. ИИ продолжает развиваться. Когда это происходит, проницательный аудитор ИИ должен быть в тонусе. Если вы являетесь одитором, который устал от ежедневных обычных одитингов, открывающая глаза всегда новая арена аудита ИИ предлагает обещание (я говорю это, чтобы частично поднять статус одиторов, поскольку они часто являются незамеченными героями, работающими в окопах и склонны пренебрегать своими усилиями).

Кроме того, я был сертифицированным аудитором компьютерных систем (одним из таких назначений является CISA) и много раз проводил аудит ИТ (информационных технологий), включая аудит ИИ. В большинстве случаев вы не получаете заслуженного признания за такие усилия. Вы, наверное, догадались, почему. По большому счету, аудиторы склонны находить неправильные или сломанные вещи. В этом смысле они весьма полезны, хотя некоторые могут воспринять это как плохие новости, а вестника плохих новостей обычно особо не возводят на пьедестал.

Вернемся к делу.

Что касается закона Нью-Йорка, вот что говорится в законе об аудите ИИ и попытках выявить предвзятость ИИ:

  • «Термин «предвзятый аудит» означает беспристрастную оценку независимым аудитором. Такой аудит предвзятости должен включать, но не ограничиваться тестированием автоматизированного инструмента принятия решений о приеме на работу для оценки несоизмеримого воздействия инструмента на лиц любой категории компонента 1, о которых работодатели должны сообщать в соответствии с подразделом (c) раздела 2000e-8 заголовка. 42 кодекса Соединенных Штатов, как указано в части 1602.7 раздела 29 свода федеральных правил» (NYC, Int 1894-2020, подраздел 25, раздел 20-870).

Подводя итог, вот где мы до сих пор распаковывали этот закон:

  • Закон распространяется на автоматизированные инструменты принятия решений о трудоустройстве (AEDT).
  • Определение видов включено, чтобы определить, что такое AEDT.
  • В определении AEDT также упоминаются исключительные положения.
  • Суть в том, что закон хочет разоблачить предвзятость ИИ в AEDT.
  • Чтобы выяснить, присутствуют ли предубеждения ИИ, необходимо провести аудит ИИ.
  • Аудит ИИ, по-видимому, выявит любые предубеждения ИИ.

Теперь мы можем углубиться в закон.

Вот из чего состоит решение о приеме на работу:

  • «Термин« решение о приеме на работу »означает проверку кандидатов на работу или сотрудников для продвижения по службе в городе» (NYC, Int 1894-2020, подраздел 25, раздел 20-870).

Обратите внимание, что ограничивающий аспект «города» предполагает, что дело касается только обстоятельств, связанных с трудоустройством, в пределах Нью-Йорка. Кроме того, стоит отметить, что решение о приеме на работу, как оно определено, влечет за собой проверку кандидатов, что является обычной коннотацией того, что мы считаем решением о приеме на работу, плюс оно также включает продвижение по службе.

Это двойной удар в том смысле, что фирмам нужно будет осознать, что они должны быть в курсе того, как их AEDT (если они его используют) используются для первоначального трудоустройства, а также при продвижении внутри фирмы. Вы, вероятно, можете догадаться или предположить, что многие фирмы не будут в полной мере осведомлены о том, что элемент продвижения также входит в эту рубрику. Они неизбежно пропустят эту дополнительную конструкцию на свой страх и риск.

Далее я приведу дополнительный ключевой отрывок из закона, чтобы осветить суть того, что считается незаконным в соответствии с этим законом:

  • «Требования к автоматизированным инструментам принятия решений о приеме на работу. а. В городе считается незаконным использование работодателем или агентством по трудоустройству автоматизированного инструмента принятия решения о приеме на работу для проверки кандидата или работника на предмет принятия решения о приеме на работу, за исключением случаев, когда: за год до использования такого средства; и 1. Сводка результатов самой последней проверки предвзятости такого инструмента, а также дата распространения инструмента, к которому применяется такая проверка, были размещены в открытом доступе на веб-сайте работодателя или агентства по трудоустройству до использования такой инструмент…» (NYC, Int 2-1894, подраздел 2020, раздел 25-20). Есть дополнительные подпункты, на которые вы, возможно, захотите взглянуть, если вас очень интересует юридическая формулировка.

Скептики и критики утверждали, что это кажется несколько прохладным в отношении разоблачения незаконной деятельности.

Они говорят, что закон лишь узко и минимально фокусируется на проведение аудит ИИ и Пропаганда результаты, а не о том, обнаружил ли аудит ИИ предвзятость ИИ и какие последствия это имело для принятия решений о трудоустройстве, подпадающих под действие этого закона. По сути, это, по-видимому, незаконно не выбрать проведение такого аудита ИИ (когда это применимо, как обсуждалось ранее), а также это является незаконным в том случае, если вы проводите аудит ИИ, но не не предать гласности это.

В законе, похоже, ничего не говорится о том, были ли выявлены и присутствуют предубеждения ИИ. Точно так же молчание о том, повлияли ли предубеждения ИИ на кого-либо, связанного с важной деятельностью по принятию решений о трудоустройстве. Суть в том, чтобы, казалось бы, просто «просто» провести аудит ИИ и рассказать об этом.

Разве этого закона недостаточно?

Часть контраргумента против утверждения, что это, по-видимому, удовлетворительно в отношении диапазона или масштаба того, что охватывает этот закон, заключается в том, что, если аудит ИИ действительно обнаружит предубеждения ИИ, и если эти предубеждения ИИ связаны с конкретными случаями принятия решений о занятости, человек или лица, пострадавшие таким образом, смогут преследовать работодателя в соответствии с другие законы. Таким образом, нет необходимости включать этот аспект в данный конкретный закон.

Якобы этот закон призван пролить свет на такие вопросы.

Как только свет прольется на эти неблаговидные практики, можно будет использовать всевозможные другие юридические возможности, если предубеждения ИИ существуют и влияют на людей. Аргумент состоит в том, что без этого закона те, кто использует AEDT, будут делать это, возможно, в ярости и потенциально иметь массу предубеждений ИИ, о которых те, кто ищет работу, или те, кто ищет продвижения по службе, не знали бы, что происходит.

Вынесите их на поверхность. Заставьте их рассказать. Заберитесь под капот. Посмотрите, что внутри этого двигателя. Это мантра в данном случае. Из этого всплытия и рассказа могут быть предприняты дополнительные действия.

Помимо обращения в суд в результате выяснения того, что аудит ИИ, возможно, сообщил о наличии предубеждений ИИ, существует также убеждение, что публикация этих результатов вызовет репутационные последствия. Работодатели, которые демонстрируются как использующие AEDT с предубеждениями в отношении ИИ, вероятно, пострадают от общественного гнева, например, через социальные сети и тому подобное. Они будут разоблачены за свои злодеяния и пристыжены, чтобы исправить свое поведение, а также могут оказаться лишенными людей, желающих работать там из-за сомнений, что предубеждения ИИ мешают найму или узурпации продвижения по службе.

Заявленные наказания, связанные с нарушением закона, таковы:

  • «Наказания. а. Любое лицо, нарушающее любое положение этой подглавы или любое правило, обнародованное в соответствии с этой подглавой, несет гражданско-правовую ответственность в размере не более 500 долларов США за первое нарушение и каждое дополнительное нарушение, имевшее место в тот же день, что и первое нарушение, но не менее 500 долларов США, но не более 1,500 долларов США за каждое последующее нарушение» (NYC, Int 1894-2020, подраздел 25, раздел 20-872). Есть дополнительные подпункты, на которые вы, возможно, захотите взглянуть, если вас очень интересует юридическая формулировка.

Скептики и критики утверждают, что наказания недостаточно суровы. Крупная фирма якобы насмехалась бы над мизерными штрафами в долларах. Другие отмечают, что штраф может оказаться больше, чем кажется на первый взгляд, например, если фирма будет иметь тысячу долларов нарушений каждый день (только один сценарий, есть много других сценариев), годовая стоимость составит около 365,000 XNUMX долларов, если предположить, что фирма просто игнорировала закон в течение всего года, и это сошло с рук (кажется, трудно представить, но это может произойти и даже может произойти дольше или с более высокой кульминацией ежедневных штрафов, теоретически).

Между тем, некоторые беспокоятся о малых предприятиях и связанных с ними штрафах. Если малый бизнес, который едва сводит концы с концами, получит штрафы, и предположительно сделал это не по преднамеренной мотивации обойти закон, штрафы могут существенно повлиять на их шатающийся бизнес.

Проблематичные соображения Keystone

У меня к вам простой и понятный вопрос.

В контексте этого закона, что именно представляет собой аудит ИИ?

Проблема заключается в том, что в описательной части закона нет определенного указания. Все, что нам как бы говорят, это то, что «аудит предвзятости» должен проводиться посредством «беспристрастной оценки независимым аудитором» (согласно формулировке закона).

Вы можете проехать на грузовике Mac через эту зияющую дыру.

Вот почему.

Рассмотрим этот довольно обескураживающий пример. Мошенник связывается с фирмой в Нью-Йорке и объясняет, что они предоставляют такую ​​услугу, что проведут так называемый «аудит предвзятости» своего AEDT. Они обещают, что сделают это «беспристрастно» (что бы это ни значило). Они позиционируют себя как независимые одиторы, и они помазали себя таковыми. Нет необходимости в каком-либо обучении бухгалтерскому учету или аудиту, степенях, сертификатах или чем-либо в этом роде. Может быть, они потрудились напечатать несколько визитных карточек или поспешно создали веб-сайт, рекламирующий свою репутацию независимого аудитора.

Они будут взимать с фирмы скромную плату, скажем, 100 долларов. Их служба состоит, возможно, в том, чтобы задать несколько вопросов о AEDT, а затем объявить, что AEDT не имеет предубеждений. Затем они отправляют отчет размером в одну страницу, в котором объявляются «результаты» так называемого аудита. Фирма добросовестно публикует это на своем веб-сайте.

Соблюдает ли фирма этот закон?

Кому ты рассказываешь.

Похоже, они есть.

Вы можете сразу же удивиться тому, что аудит был проведен поверхностно (в данном конкретном случае это вежливо и щедро). Вас может обеспокоить то, что обнаружение предвзятости (или его отсутствие), возможно, было по существу предопределено (вуаля, вы, кажется, свободны от предвзятости). Вы можете быть расстроены тем, что опубликованные результаты могут создать ауру тщательного аудита добросовестным, обученным, опытным, сертифицированным аудитором.

Да, это касается размера вещей.

Работодатель может быть рад, что выполнил это «глупое» требование, и чертовски счастлив, что это обошлось ему всего в жалкие 100 долларов. Работодатель может внутренне и незаметно понять, что независимый аудит был фарсом, но, похоже, это не его плечи. Им представили заявленного независимого аудитора, аудитор выполнил работу, которую аудитор назвал соответствующей, фирма заплатила за нее, они получили результаты, и они опубликовали результаты.

Некоторые работодатели сделают это и поймут, что они соблюдают закон. Тем не менее, они будут считать, что полностью соответствуют требованиям.

Другие работодатели могут быть обмануты. Все, что они знают, это необходимость соблюдать закон. К счастью для них (по крайней мере, они так считают), с ними связывается «независимый аудитор» и обещает, что проверка жалоб и результат могут быть получены за 100 долларов. Чтобы избежать ежедневных штрафов в размере 500 долларов и более, фирма считает, что им преподнесли подарок с небес. Они платят 100 долларов, происходит «аудит», они бесплатно получают справку об отсутствии предвзятости ИИ, публикуют результаты и забывают об этом до тех пор, пока в следующий раз им не понадобится провести еще один такой аудит. .

Как каждая фирма в Нью-Йорке, подпадающая под действие этого закона, должна знать, что такое добросовестное соблюдение закона?

Если у вас еще не болит живот, мы можем сделать еще хуже. Я надеюсь, что вы не ели в последние несколько часов, так как следующий поворот будет сложно сохранить нетронутым.

Готовы ли вы?

Этот фиктивный поставщик услуг оказался большим мошенником, чем вы могли подумать. Они заставляют фирму подписаться на услугу за 100 долларов, чтобы провести беспристрастный аудит предвзятости в качестве независимого аудитора. О чудо, они проводят «аудит» и обнаруживают, что в каждом уголке AEDT есть предубеждения.

У них есть предвзятость ИИ, как нашествие тараканов.

Да, говорит фирма, что мы можем с этим поделать?

Нет проблем, говорят им, мы можем исправить эти предубеждения ИИ для вас. Это будет стоить вам всего 50 долларов за каждое найденное смещение. Хорошо, говорит фирма, пожалуйста, исправьте их, спасибо за это. Поставщик услуг немного лукавит и сообщает фирме, что они исправили сто искажений ИИ, и поэтому будут взимать с них 5,000 долларов (это 50 долларов за каждое исправление смещения ИИ, умноженное на 100 найденных).

Ой, фирма чувствует себя ущемленной, но это все же лучше, чем сталкиваться с нарушениями в размере 500 или более долларов в день, поэтому они платят «независимому аудитору», а затем получают новый отчет, демонстрирующий, что они теперь свободны от предвзятости. Они с гордостью публикуют это на своем сайте.

Мало ли они знают, что это был бесполезный труд, мошенничество, афера.

Вы можете настаивать на том, чтобы этот поставщик услуг был наказан за их обман. Поймать и остановить этих мошенников будет намного сложнее, чем вы можете себе представить. Точно так же, как преследование тех иностранных принцев, у которых есть состояние для вас, вероятно, находится в какой-то чужой стране, находящейся вне досягаемости законов Соединенных Штатов, то же самое может произойти и в этом случае.

Ожидайте появления кустарной промышленности из-за этого нового закона.

Будут добросовестные аудиторы, которые будут стремиться предоставлять эти услуги. Хорошо для них. Будут поверхностные аудиторы, которые займутся этой работой. Будут ложно провозглашенные одиторы, которые займутся этой работой.

Я упомянул, что сценарий поставщика услуг включал запрос 100 долларов на проведение так называемого аудита ИИ. Это был просто выдуманный заполнитель. Возможно, некоторые будут взимать 10 долларов (кажется отрывочным). Возможно, около 50 долларов (все еще отрывочно). И т.п.

Предположим, поставщик услуг говорит, что выполнение работы будет стоить 10,000 XNUMX долларов.

Или 100,000 XNUMX долларов, чтобы сделать это.

Возможно, 1,000,000 XNUMX XNUMX долларов, чтобы сделать это.

Некоторые работодатели понятия не имеют, сколько это может или должно стоить. Маркетинг этих услуг будет бесплатным для всех. Это закон о зарабатывании денег для тех, кто на законных основаниях оказывает эти услуги, а также для тех, кто делает это закулисно. Трудно будет понять, что есть что.

Я также попрошу вас созерцать еще одну зияющую дыру.

В контексте этого закона, что именно представляет собой предвзятость ИИ?

Если не считать упоминания свода федеральных правил Соединенных Штатов (это не дает особого ответа на вопрос о предвзятости ИИ и, следовательно, не служит временной мерой или решением в этом вопросе), вам будет трудно утверждать, что этот новый закон дает какое-либо существенное указание на то, что такое предвзятость ИИ. Опять же, это будет совершенно открыто для самых разнородных интерпретаций, и вы не будете особенно знать, что искали, что нашли и так далее. Кроме того, работа, выполняемая даже добросовестными аудиторами ИИ, почти наверняка будет несравнима с другой, так что каждый из них будет склонен использовать собственные определения и подходы.

Короче говоря, мы можем с трепетом и беспокойством наблюдать за тем, с чем столкнутся работодатели в результате принятия этого расплывчато сформулированного, хотя и благонамеренного закона:

  • Некоторые работодатели знают о законе и искренне и полностью соблюдают его в меру своих возможностей.
  • Некоторые работодатели будут знать о законе и незначительно следовать самому тонкому, дешевому и, возможно, сомнительному пути, который они могут найти или который приходит к ним на порог.
  • Некоторые работодатели знают о законе и считают, что они не подпадают под действие закона, поэтому ничего не будут с этим делать (хотя оказывается, что они могут быть под его действием)
  • Некоторые работодатели узнают о законе и наотрез решат его игнорировать, возможно, полагая, что никто не заметит, или что закон не будет соблюдаться, или закон будет признан неисполнимым и т. д.
  • Некоторые работодатели не будут знать о законе и будут застигнуты врасплох, пытаясь его соблюдать.
  • Некоторые работодатели не будут знать о законе и будут с треском обдираться мошенниками.
  • Некоторые работодатели не знают о законе, они не подпадают под действие закона, но их все равно обдирают мошенники, которые убеждают их, что они подпадают под действие закона.
  • Некоторые работодатели не знают о законе и ничего не будут с ним делать, при этом чудесным образом никогда не попадаются и не наказываются за свою оплошность.
  • Другие контрактные услуги

Одним из важнейших соображений, о которых следует помнить, является величина или масштаб, связанный с этим новым законом.

Согласно различным опубликованным статистическим данным о количестве предприятий в Нью-Йорке, количество обычно указывается где-то около 200,000 XNUMX или около того предприятий (давайте использовать это как порядок величины). Предполагая, что это разумное приближение, по-видимому, эти предприятия как работодатели подпадают под действие этого нового закона. Таким образом, возьмите вышеупомянутые несколько способов, которыми работодатели будут реагировать на этот закон, и подумайте, сколько будет в каждом из различных ведер, которые я только что упомянул.

Это довольно ошеломляющая проблема масштабирования.

Кроме того, согласно представленным статистическим данным, в частном секторе Нью-Йорка насчитывается около 4 миллионов рабочих мест, а также примерно 300,000 XNUMX государственных служащих, нанятых правительством Нью-Йорка (опять же, используйте их как порядки, а не точные подсчеты). Если принять во внимание, что новые сотрудники, по-видимому, подпадают под действие этого нового закона, наряду с продвижением по службе, связанным со всеми существующими и будущими работниками, количество сотрудников, которых так или иначе коснется этот закон, просто поразительно. .

В «Большом яблоке» действует новый закон, который на первый взгляд кажется безобидным и якобы незначительным или обыденным, но когда вы осознаете задействованные коэффициенты масштабирования, у вас может закружиться голова.

Заключение

Я упомянул в начале этого обсуждения, что это благонамеренный новый закон.

Все, что я только что описал как потенциальные лазейки, упущения, пробелы, проблемы и тому подобное, можно было легко предвидеть. Это не ракетостроение. Я мог бы добавить, что в этом законе есть еще больше неотъемлемых проблем и сбивающих с толку аспектов, которые из-за нехватки места здесь я не назвал.

Вы можете найти их так же легко, как подстрелить рыбу в бочке.

Законы такого рода должны быть тщательно разработаны, чтобы попытаться предотвратить такие подлые обходные пути. Я предполагаю, что серьезные композиторы стремились написать закон, который, по их мнению, был относительно железным и, возможно, в худшем случае имел несколько крошечных капелек здесь или там. К сожалению, это пожарный шланг капель. Понадобится много скотча.

Можно ли было написать закон более четко, чтобы закрыть эти довольно очевидные лазейки и связанные с ними проблемы?

Да, обильно.

Теперь, в таком случае, вы могли бы с негодованием увещевать, что такой закон, несомненно, был бы намного длиннее. Всегда есть компромисс между законом, который продолжается и продолжается, становится громоздким, и тем, чтобы быть кратким и компактным. Тем не менее, вы не хотите получить краткость за счет потери того, что было бы существенной и достойной похвалы ясностью и конкретностью. Короткий закон, разрешающий махинации, чреват неприятностями. Более длинный закон, даже если он кажется более сложным, обычно является достойным компромиссом, если он позволяет избежать, предотвратить или, по крайней мере, свести к минимуму последующие проблемы на этапе принятия.

Блаженный Августин сказал: «Мне кажется, что несправедливый закон вовсе не закон».

Мы могли бы сделать вывод, что справедливый закон, составленный из проблемных формулировок, — это закон, умоляющий порождать суровые проблемы. В этом случае мы, кажется, остались с мудрыми словами великого юриста Оливера Уэнделла Холмса-младшего, а именно о том, что страница истории стоит фунта логики.

Следите за тем, как история скоро будет сделана.

Источник: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- предвзятость-аудит-пускает механизм/