Ответственный ИИ наслаждается выдающимся повышением благодаря Прокламации об этике ИИ от высшего профессионального сообщества ACM

Вы видели или слышали новости?

Недавно был провозглашен еще один набор этических принципов ИИ.

Бурные аплодисменты, пожалуйста.

Опять же, вы могли бы не заметили это из-за того, что уже некоторое время циркулирует так много других указов об этике ИИ. Некоторые говорят, что кажущееся безостановочным распространение заявлений об этичном ИИ начинает немного ошеломлять. Сколько нам нужно? Сможет ли кто-нибудь угнаться за ними всеми? Какой из них лучше? Возможно, мы переусердствуем с принципами этики ИИ? И так далее.

Что ж, в данном конкретном случае я говорю, что мы должны особенно приветствовать это последнее пополнение в клубе.

Я проницательно объясню, почему через мгновение.

Во-первых, в качестве пояснения, я имею в виду набор правил этики ИИ, теперь официально известный как «Заявление о принципах ответственных алгоритмических систем» который был недавно опубликован Советом по технологической политике ACM 26 октября 2022 года. Мы выражаем благодарность командам экспертов, которые составили этот ценный документ, в том числе соведущим авторам Джинне Мэтьюз (Университет Кларксона) и Рикардо Баеза-Йейтсу (Университет Помпеу Фабра). ).

Те из вас, кто в курсе, могут при внимательном рассмотрении понять, что этот документ кажется слегка знакомым.

Хороший глаз!

Это последнее воплощение, по сути, является обновленным и расширенным вариантом более раннего совместного «Заявление об алгоритмической прозрачности и подотчетности», которое было обнародовано Комитетом по технологической политике ACM США и Комитетом по технологической политике ACM в Европе в 2017 году. Верные читатели моих колонок могут помнить, что Я время от времени упоминал указ 2017 года в своей колонке, посвященной ключевым аспектам, лежащим в основе этики ИИ и закона об ИИ.

Мои обширные и постоянные оценки и анализ тенденций этики ИИ и закона об ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Это последнее заявление ACM особенно важно по нескольким жизненно важным причинам.

Вот почему.

ACM, который является удобной аббревиатурой для Ассоциации по вычислительной технике, считается крупнейшей в мире ассоциацией, специализирующейся на вычислительной технике. ACM, насчитывающий около 110,000 1947 членов, является давним пионером в области вычислительной техники. ACM проводит одни из самых передовых научных исследований в области вычислительной техники, а также обеспечивает профессиональные сети и привлекает специалистов-практиков в области вычислительной техники. Таким образом, ACM является важным голосом, представляющим, как правило, тех, кто занимается высокими технологиями, и постоянно стремится продвигать компьютерную область (ACM была основана в XNUMX году).

Я мог бы добавить немного личного примечания по этому поводу тоже. Когда я впервые столкнулся с компьютерами в старшей школе, я присоединился к ACM и участвовал в их образовательных программах, особенно в захватывающей возможности участвовать в их ежегодном соревновании по компьютерному программированию (такие соревнования в настоящее время широко распространены и обычно обозначаются как хакатон). Я продолжаю участвовать в ACM во время учебы в колледже через местное университетское отделение и получил возможность узнать о лидерстве, став сотрудником студенческого отделения. Войдя в отрасль, я присоединился к профессиональному отделению и снова взял на себя руководящую роль. Позже, когда я стал профессором, я работал в комитетах и ​​редакциях ACM, а также спонсировал студенческое отделение в кампусе. Даже сегодня я активен в ACM, в том числе служу в Комитете по технологической политике США ACM.

Я наслаждаюсь привлекательным и устойчивым видением ACM обучения на протяжении всей жизни и развития карьеры.

В любом случае, с точки зрения последнего заявления об этике ИИ, тот факт, что оно было выпущено ACM, имеет большое значение. Вы можете обоснованно утверждать, что этические предписания ИИ — это совокупность или коллективный голос всемирной группы профессионалов в области вычислительной техники. Это говорит о чем-то прямо там.

Существует также аспект, что другие в компьютерной области будут вдохновлены, чтобы воспрянуть духом и прислушаться в том смысле, что уделяют должное внимание тому, что заявление заявляет их коллеги-компьютерщики. Таким образом, даже те, кто не состоит в ACM или вообще ничего не знает о почитаемой группе, надеюсь, проявят большой интерес к тому, о чем говорится в заявлении.

При этом те, которые внешнюю из компьютерной области может быть обращено на заявление как своего рода закулисный инсайдерский взгляд на то, что те, кто занимается компьютерами, говорят об этическом ИИ. Однако я хочу подчеркнуть, что это заявление предназначено для всех, а не только для компьютерного сообщества, и поэтому имейте в виду, что этические предписания ИИ, так сказать, универсальны.

Наконец, есть дополнительный поворот, который мало кто будет учитывать.

Иногда посторонние считают, что компьютерные ассоциации погрязли в технологиях и не особенно осведомлены о влиянии компьютеров и ИИ на общество. У вас может возникнуть соблазн предположить, что такие профессиональные организации заботятся только о последних и самых горячих достижениях в аппаратном или программном обеспечении. Публика, грубо говоря, воспринимает их как технарей.

Чтобы внести ясность, я был погружен в социальные последствия вычислений с тех пор, как впервые столкнулся с компьютерами, и точно так же ACM также активно занимается этими темами.

Для тех, кто удивлен тем, что это заявление о принципах этики ИИ было составлено и опубликовано ACM, они не обращают внимания на давние исследования и работу, проводимую по этим вопросам. Я бы также призвал тех, кто заинтересован, внимательно взглянуть на ACM. Моральный кодекс, строгий кодекс профессиональной этики, который развивался годами и подчеркивает, что разработчики систем должны знать, соблюдать и проявлять бдительность в отношении этических последствий своих усилий и продуктов.

ИИ разжигает огонь, узнавая об этике вычислений.

Заметность этических и правовых соображений в вычислительной сфере значительно возросла с появлением современного ИИ. Профессионалов информируют, а иногда и убеждают уделять должное внимание вопросам этики ИИ и закона об ИИ. Законодатели все больше узнают об аспектах этики ИИ и законов об ИИ. Компании осознают, что ИИ, который они разрабатывают или используют, является одновременно и выгодным, и в то же время временами сопряженным с огромными рисками и потенциальными недостатками.

Давайте раскроем то, что произошло за последние несколько лет, чтобы можно было установить соответствующий контекст, прежде чем мы перейдем к этому последнему набору правил этики ИИ.

Растущее осознание этического ИИ

Недавняя эра ИИ изначально рассматривалась как AI для хорошего, а это означает, что мы могли бы использовать ИИ для улучшения человечества. По пятам AI для хорошего пришло осознание того, что мы тоже погружены в AI для плохих. Это включает в себя ИИ, который разработан или самоизменен, чтобы быть дискриминационным, и делает вычислительный выбор, наполняющий неправомерными предубеждениями. Иногда ИИ устроен таким образом, а в других случаях он сворачивает на эту неблагоприятную территорию.

Я хочу полностью убедиться, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели порассуждать о разумном ИИ, эта дискуссия могла бы пойти в совершенно другом направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхинтеллектуальный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Я бы настоятельно рекомендовал, чтобы мы не придавали значения вещам и рассматривали сегодняшний вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

Будьте очень осторожны с антропоморфизацией современного ИИ.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Все это имеет особенно важные последствия для этики ИИ и предлагает удобное окно для извлеченных уроков (даже до того, как все уроки произойдут), когда дело доходит до попытки законодательно закрепить ИИ.

Помимо использования принципов этики ИИ в целом, возникает соответствующий вопрос о том, должны ли мы иметь законы, регулирующие различные виды использования ИИ. На федеральном уровне, уровне штатов и на местном уровне обсуждаются новые законы, касающиеся диапазона и характера разработки ИИ. Усилия по разработке и принятию таких законов носят постепенный характер. Этика ИИ служит, по крайней мере, временной мерой и почти наверняка в какой-то степени будет непосредственно включена в эти новые законы.

Имейте в виду, что некоторые категорически утверждают, что нам не нужны новые законы, касающиеся ИИ, и что наших существующих законов достаточно. Они предупреждают, что если мы примем некоторые из этих законов об ИИ, мы убьем золотого гуся, пресекая достижения в области ИИ, которые предлагают огромные социальные преимущества.

В предыдущих колонках я рассказывал о различных национальных и международных усилиях по разработке и принятию законов, регулирующих ИИ, см. ссылка здесь, Например. Я также рассмотрел различные принципы и руководства по этике ИИ, которые были определены и приняты различными странами, включая, например, усилия Организации Объединенных Наций, такие как свод этических норм ИИ ЮНЕСКО, принятый почти в 200 странах, см. ссылка здесь.

Вот полезный краеугольный список критериев или характеристик этического ИИ, касающихся систем ИИ, которые я ранее внимательно изучал:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Предполагается, что эти принципы этики ИИ должны серьезно использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ.

Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как уже подчеркивалось здесь, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна быть осведомлена и соблюдать этические предписания ИИ.

Я тоже недавно осматривал ИИ Билль о правах таково официальное название официального документа правительства США под названием «План Билля о правах ИИ: заставить автоматизированные системы работать на благо американского народа», который стал результатом многолетних усилий Управления научно-технической политики (OSTP). ). OSTP — это федеральная организация, которая консультирует американского президента и администрацию США по различным технологическим, научным и инженерным аспектам государственной важности. В этом смысле можно сказать, что этот Билль о правах ИИ является документом, одобренным и одобренным существующим Белым домом США.

В Билле о правах ИИ есть пять ключевых категорий:

  • Безопасные и эффективные системы
  • Алгоритмическая защита от дискриминации
  • Конфиденциальность данных
  • Уведомление и объяснение
  • Человеческие альтернативы, рассмотрение и отступление

Я внимательно изучил эти заповеди, см. ссылка здесь.

Теперь, когда я заложил полезную основу для этих связанных тем, связанных с этикой ИИ и законом об ИИ, мы готовы перейти к недавно выпущенному ACM «Заявление о принципах ответственных алгоритмических систем» (кстати, поскольку название документа относится к ответственный алгоритмических систем, вы можете взглянуть на мою оценку того, что значит говорить о Надежный ИИСм. ссылка здесь).

Приготовьтесь к путешествию в этот последний набор принципов этики ИИ.

Внимательно изучаем объявленные ACM этические принципы ИИ

Заявление ACM об этичном ИИ состоит из следующих девяти краеугольных камней:

  • Легитимность и компетентность
  • Сведение к минимуму вреда
  • Безопасность и конфиденциальность
  • Прозрачность
  • Интерпретируемость и объяснимость
  • Ремонтопригодность
  • Состязательность и проверяемость
  • Подотчетность и ответственность
  • Ограничение воздействия на окружающую среду

Если вы сравните этот последний набор с другими известными доступными наборами, между ними будет много общего или родственных соответствий.

С одной стороны, можно считать это хорошим знаком.

В общем, мы можем надеяться, что множество принципов этики ИИ, которые витают вокруг, объединятся в один и тот же общий охват. Видя, что один набор в некоторой степени сопоставим с другим набором, вы получаете подобие уверенности в том, что эти наборы находятся в пределах одного и того же примерного поля, а не каким-то образом в запутанном левом поле.

Некоторые потенциальные жалобы заключаются в том, что эти различные наборы кажутся примерно одинаковыми, что затем, возможно, создает путаницу или, по крайней мере, ужас из-за опасений, что у нас не должно быть многочисленных, казалось бы, дублирующих списков. Разве не может быть только один список? Проблема, конечно, в том, что нет простого способа сделать все такие списки абсолютно одинаковыми. Разные группы и разные организации подходили к этому по-разному. Хорошая новость заключается в том, что почти все они пришли к одному и тому же всеобъемлющему выводу. Мы можем быть рады, что наборы не имеют огромных различий, что, возможно, вызвало бы у нас беспокойство, если бы не было общего консенсуса.

Сторонник может возразить, что общность этих списков сбивает с толку, утверждая, что, возможно, имеет место групповое мышление. Возможно, все эти разрозненные группы мыслят одинаково и не способны смотреть дальше нормы. Все мы попадаем в одинаковую ловушку. Списки якобы закрепляют наше мышление, и мы не можем видеть дальше собственного носа.

Заглянуть дальше нашего носа, несомненно, достойная причина.

Я, конечно, открыт для того, чтобы услышать, что говорят противники. Иногда они улавливают что-то, что имеет Титанический направляясь к гигантскому айсбергу. Нам не помешало бы несколько наблюдателей с орлиным зрением. Но что касается этих заповедей этики ИИ, то не было ничего, что было бы четко сформулировано противоположниками, что, по-видимому, явно подрывает или вызывает беспокойство по поводу происходящей чрезмерной общности. Я думаю, у нас все хорошо.

В этом наборе ACM есть несколько особенно примечательных или выдающихся моментов, которые, как мне кажется, заслуживают особого внимания.

Во-первых, мне нравится формулировка верхнего уровня, которая несколько отличается от нормы.

Например, ссылаясь на легитимность и компетентность (первый отмеченный пункт) напоминает о важности как дизайнерских, так и управленческих компетенций, связанных с ИИ. В дополнение законность крылатая фраза приводит нас к этике ИИ и Сфера Закона ИИ. Я говорю это потому, что многие предписания по этике ИИ почти полностью концентрируются на этических последствиях, но, кажется, опускают или уклоняются от упоминания юридических последствий. В правовой сфере этические соображения часто преподносятся как «мягкое право», в то время как действующие законы толкуются как «жесткие законы» (имея в виду, что они имеют вес судебных инстанций).

Одно из моих любимых высказываний всех времен было произнесено знаменитым юристом Эрлом Уорреном: «В цивилизованной жизни закон плавает в море этики».

Мы должны убедиться, что этические предписания ИИ также охватывают и подчеркивают жесткую сторону вещей, такую ​​как разработка, принятие и обеспечение соблюдения законов об ИИ.

Во-вторых, я ценю, что список включает состязательность и проверяемость.

Я неоднократно писал о ценности возможности оспаривать или поднимать красный флаг, когда вы подвергаетесь воздействию системы ИИ, см. ссылка здесь. Кроме того, мы будем все чаще сталкиваться с новыми законами, заставляющими проводить аудит систем ИИ, которые я подробно обсуждал с законом Нью-Йорка (Нью-Йорк) о предвзятости аудита систем ИИ, используемых для найма и продвижения по службе, см. ссылка здесь. К сожалению, и согласно моей открытой критике нового закона Нью-Йорка, если эти законы о возможности аудита несовершенны, они, вероятно, создадут больше проблем, чем решат.

В-третьих, происходит постепенное осознание того, что ИИ может решать вопросы устойчивого развития, и мне приятно видеть, что окружающий тема получила высшую оценку в этих принципах этики ИИ (см. последний пункт списка).

Процесс создания системы ИИ сам по себе может потреблять много вычислительных ресурсов. Эти вычислительные ресурсы могут прямо или косвенно быть узурпаторами устойчивого развития. Следует учитывать компромисс между преимуществами, которые обеспечивает ИИ, и затратами, которые возникают вместе с ИИ. В последнем из маркированных пунктов ACM отмечаются аспекты устойчивости и защиты окружающей среды, связанные с ИИ. Мое освещение проблем углеродного следа, связанных с ИИ, см. ссылка здесь.

Теперь, когда мы внимательно изучили список предписаний этики ИИ, составленный ACM, мы еще глубже погрузим наши пальцы в воду.

Вот официальные описания каждой из этических заповедей ИИ высокого уровня (цитата из официального заявления):

1. "Легитимность и компетентность: Разработчики алгоритмических систем должны обладать компетенцией в области управления и явными полномочиями для создания и развертывания таких систем. Они также должны иметь опыт в прикладной области, научную основу для предполагаемого использования систем и широко рассматриваться как социально законные заинтересованными сторонами, на которых воздействует система. Необходимо провести юридическую и этическую оценку, чтобы подтвердить, что любые риски, создаваемые системами, будут пропорциональны решаемым проблемам, и что любые компромиссы между пользой и вредом понятны всем соответствующим заинтересованным сторонам».

2. "Минимизация вреда: Менеджеры, проектировщики, разработчики, пользователи и другие заинтересованные стороны алгоритмических систем должны знать о возможных ошибках и предубеждениях, связанных с их проектированием, реализацией и использованием, а также о потенциальном вреде, который система может причинить людям и обществу. Организации должны регулярно проводить оценку воздействия на системы, которые они используют, чтобы определить, может ли система причинить вред, особенно дискриминационный вред, и применить соответствующие меры по смягчению последствий. Когда это возможно, они должны учиться на показателях фактической производительности, а не только на моделях прошлых решений, которые сами по себе могли быть дискриминационными».

3. "Безопасность и конфиденциальность: Риск со стороны злоумышленников можно снизить, внедрив передовые методы обеспечения безопасности и конфиденциальности на каждом этапе жизненного цикла систем, включая надежные средства контроля для устранения новых уязвимостей, возникающих в контексте алгоритмических систем».

4. "Прозрачность: Разработчикам систем рекомендуется четко документировать, каким образом конкретные наборы данных, переменные и модели были выбраны для разработки, обучения, проверки и тестирования, а также конкретные меры, которые использовались для гарантии качества данных и результатов. Системы должны указывать свой уровень уверенности в каждом выходе, а люди должны вмешиваться, когда уверенность низкая. Разработчики также должны задокументировать подходы, которые использовались для выявления потенциальных предубеждений. Для систем, оказывающих критическое воздействие на жизнь и благополучие, должны требоваться независимые процедуры проверки и валидации. Общественное ознакомление с данными и моделями дает максимальные возможности для исправления. Таким образом, разработчики должны содействовать стороннему тестированию в общественных интересах».

5. "Интерпретируемость и объяснимость: Руководителям алгоритмических систем рекомендуется предоставлять информацию как о процедурах, которым следуют используемые алгоритмы (интерпретируемость), так и о конкретных решениях, которые они принимают (объяснимость). Объяснимость может быть так же важна, как и точность, особенно в контексте государственной политики или в любой среде, в которой есть опасения по поводу того, как алгоритмы могут быть искажены в пользу одной группы по сравнению с другой без подтверждения. Важно различать объяснения и постфактум рационализации, которые не отражают доказательства или процесс принятия решений, используемый для достижения объясняемого вывода».

6. "Ремонтопригодность: Доказательства надежности всех алгоритмических систем должны собираться на протяжении их жизненного цикла, включая документирование системных требований, разработку или внедрение изменений, контрольные примеры и результаты, а также журнал обнаруженных и исправленных ошибок. Надлежащее техническое обслуживание может потребовать переобучения систем с использованием новых обучающих данных и/или замены используемых моделей».

7. "Состязательность и проверяемость: Регуляторные органы должны поощрять внедрение механизмов, позволяющих отдельным лицам и группам ставить под сомнение результаты и добиваться возмещения неблагоприятных последствий, вызванных алгоритмически обоснованными решениями. Руководители должны обеспечить запись данных, моделей, алгоритмов и решений, чтобы их можно было проверить и воспроизвести результаты в случаях подозрения или предполагаемого вреда. Стратегии аудита должны быть обнародованы, чтобы отдельные лица, общественные организации и исследователи могли просматривать и рекомендовать улучшения».

8. "Подотчетность и ответственность: Государственные и частные организации должны нести ответственность за решения, принятые с помощью алгоритмов, которые они используют, даже если невозможно подробно объяснить, как эти алгоритмы дали свои результаты. Такие органы должны нести ответственность за целые системы, развернутые в их конкретном контексте, а не только за отдельные части, составляющие данную систему. При обнаружении проблем в автоматизированных системах организации, ответственные за развертывание этих систем, должны задокументировать конкретные действия, которые они предпримут для устранения проблемы, и при каких обстоятельствах использование таких технологий должно быть приостановлено или прекращено».

9. "Ограничение воздействия на окружающую среду: Алгоритмические системы должны быть спроектированы таким образом, чтобы сообщать об оценках воздействия на окружающую среду, включая выбросы углерода в результате как учебных, так и оперативных расчетов. Системы искусственного интеллекта должны быть спроектированы так, чтобы их выбросы углерода были разумными с учетом степени точности, необходимой для контекста, в котором они развернуты».

Я надеюсь, что вы внимательно и предварительно прочитаете каждое из этих важнейших правил этики ИИ. Пожалуйста, примите их близко к сердцу.

Заключение

Есть тонкая, но не менее важная часть заявления ACM, которую, как мне кажется, многие могут непреднамеренно упустить из виду. Позвольте мне обязательно обратить на это ваше внимание.

Я имею в виду часть, в которой обсуждается мучительная загадка необходимости взвешивать компромиссы, связанные с заповедями этики ИИ. Видите ли, большинство людей часто бездумно кивают головой, читая принципы этического ИИ, и предполагают, что все предписания имеют одинаковый вес, и всем предписаниям всегда будет придаваться одинаковое оптимальное подобие почтения и ценности.

Не в реальном мире.

Когда резина встретится с дорогой, любой вид ИИ, который хоть немного усложнен, будет жестоко проверять этические принципы ИИ на предмет того, что некоторые элементы достаточно достижимы по сравнению с некоторыми другими принципами. Я понимаю, что вы можете громко восклицать, что любой ИИ должен максимально следовать всем предписаниям этики ИИ, но это не особенно реалистично. Если это та позиция, которую вы хотите занять, я осмелюсь сказать, что вам, вероятно, придется сказать большинству или почти всем производителям и пользователям ИИ закрыть магазин и вообще отказаться от ИИ.

Необходимо идти на компромиссы, чтобы вывести ИИ за дверь. При этом я не призываю срезать углы, нарушающие этические нормы ИИ, и не подразумеваю, что они должны нарушать законы ИИ. Должен быть достигнут определенный минимум, и цель состоит в том, чтобы стремиться к большему. В конце концов, баланс должен быть тщательно оценен. Это уравновешивание должно быть сделано осознанно, явно, законно и с этикой ИИ как добросовестной и искренней верой (вы можете посмотреть, как компании используют советы по этике ИИ, чтобы попытаться заручиться этим торжественным подходом, см. ссылка здесь).

Вот некоторые маркированные пункты, которые упоминаются в декларации ACM о сложностях компромиссов (цитата из официального документа):

  • «Решения должны быть пропорциональны решаемой проблеме, даже если это влияет на сложность или стоимость (например, отказ от использования общественного видеонаблюдения для простой задачи прогнозирования)».
  • «Следует учитывать широкий спектр показателей производительности, которые могут иметь разный вес в зависимости от предметной области приложения. Например, в некоторых приложениях для здравоохранения последствия ложноотрицательных результатов могут быть намного хуже, чем ложноположительные, в то время как в уголовном правосудии последствия ложноположительных результатов (например, лишение свободы невиновного человека) могут быть намного хуже, чем ложноотрицательные. Наиболее желательная настройка операционной системы редко бывает максимально точной».
  • «Опасения по поводу конфиденциальности, защиты коммерческой тайны или раскрытия аналитики, которая может позволить злоумышленникам обмануть систему, могут оправдать ограничение доступа к квалифицированным лицам, но они не должны использоваться для оправдания ограничения стороннего контроля или освобождения разработчиков от обязательств. признавать и исправлять ошибки».
  • «Прозрачность должна сочетаться с процессами подотчетности, которые позволяют заинтересованным сторонам, затронутым алгоритмической системой, добиваться значимого возмещения причиненного вреда. Прозрачность не должна использоваться для узаконивания системы или для передачи ответственности другим сторонам».
  • «Когда влияние системы велико, предпочтительнее может быть более объяснимая система. Во многих случаях нет компромисса между объяснимостью и точностью. Однако в некоторых случаях неправильное объяснение может быть даже хуже, чем отсутствие объяснения (например, в системах здравоохранения симптом может соответствовать многим возможным заболеваниям, а не только одному)».

Те, кто разрабатывает или использует ИИ, могут открыто не осознавать компромиссы, с которыми они сталкиваются. Высшее руководство фирмы может наивно предположить, что ИИ соответствует максимальным требованиям по всем принципам этики ИИ. Они либо верят в это, потому что ничего не знают об ИИ, либо хотят верить в это и, возможно, подмигивают, чтобы с готовностью принять ИИ.

Скорее всего, неспособность предметно и открыто противостоять компромиссам приведет к тому, что ИИ причинит вред. Этот ущерб, в свою очередь, может открыть фирму для потенциально крупномасштабных обязательств. Вдобавок ко всему, обычные законы могут применяться для возможных преступных действий, связанных с ИИ, наряду с более новыми законами, ориентированными на ИИ, которые также бьют по этому поводу. Тонна кирпичей поджидает над головами тех, кто думает, что может обманным путем обойти компромиссы, или кто совершенно не знает, что компромиссы существуют (на них неизбежно обрушится сокрушительное осознание).

Я дам последнее слово на данный момент по этой теме заключительному аспекту заявления ACM, поскольку я думаю, что оно хорошо объясняет, что эти заповеди этического ИИ макроскопически стремятся принести:

  • «Вышеизложенные рекомендации сосредоточены на ответственном проектировании, разработке и использовании алгоритмических систем; ответственность должна определяться законом и публичным порядком. Растущая мощь алгоритмических систем и их использование в жизненно важных и связанных с ними приложениях означает, что при их использовании необходимо проявлять большую осторожность. Эти девять основных принципов призваны служить источником вдохновения для начала дискуссий, инициирования исследований и разработки методов управления, чтобы приносить пользу широкому кругу пользователей, способствуя при этом надежности, безопасности и ответственности. В конце концов, именно конкретный контекст определяет правильный дизайн и использование алгоритмической системы в сотрудничестве с представителями всех затронутых заинтересованных сторон» (цитата из официального документа).

Как проницательно говорят нам слова мудрости, путь в тысячу миль начинается с первого шага.

Я умоляю вас ознакомиться с этикой и законом об ИИ, сделать первый шаг, который поможет вам начать работу, а затем помочь в продвижении этих жизненно важных начинаний. Прелесть в том, что мы все еще находимся в зачаточном состоянии, пытаясь понять, как управлять искусственным интеллектом и справляться с ним в обществе, таким образом, вы попадаете на первый этаж, и ваши усилия могут явно формировать ваше будущее и будущее для всех нас.

Путешествие в области ИИ только началось, и важные первые шаги еще не завершены.

Источник. профессия-ассоциация-acm/