Этика ИИ и закон об ИИ взвешивают ключевые способы реализации недавно выпущенного Билля о правах ИИ, в том числе и, что удивительно, путем прямого использования ИИ

Нет никаких сомнений в том, что нам нужны чертежи в нашей повседневной жизни.

Если вы собираетесь построить дом своей давней мечты, было бы мудро сначала составить пригодный для использования план.

План демонстрирует в осязаемой и задокументированной форме любую широко раскрытую дальновидную перспективу, которая может быть заперта в вашей голове. Те, кому предстоит построить вашу заветную усадьбу, смогут обратиться к чертежу и уточнить детали того, как выполнить работу. Чертежи удобны. Отсутствие плана обязательно будет проблематичным для решения любой сложной работы или проекта.

Давайте перенесем эту несколько сентиментальную, но искреннюю дань чертежам в область искусственного интеллекта (ИИ).

Те из вас, кто по существу занимается ИИ, могут смутно осознавать, что важная политическая направленность план был недавно выпущен в США, что явно относится к будущему ИИ. Неофициально известен как ИИ Билль о правах, официальное название провозглашенной белой книги — «Проект Билля о правах ИИ: заставить автоматизированные системы работать на благо американского народа», и он легко доступен в Интернете.

Этот документ является результатом годичных усилий и внимательного изучения Управления по научно-технической политике (OSTP). OSTP — это федеральная организация, созданная в середине 1970-х годов и предназначенная для консультирования президента США и исполнительного аппарата США по различным технологическим, научным и инженерным аспектам государственной важности. В этом смысле можно сказать, что этот Билль о правах ИИ является документом, одобренным и одобренным существующим Белым домом США.

Билль о правах ИИ описывает права человека что человечество должно иметь в связи с появлением ИИ в нашей повседневной жизни. Я подчеркиваю этот важный момент, потому что некоторые люди сначала были озадачены тем, что, возможно, это было своего рода признанием ИИ как юридического лица и что это был список прав для разумного ИИ и человекоподобных роботов. Нет, мы еще не там. Как вы вскоре увидите, мы далеки от разумного ИИ, несмотря на заголовки баннеров, которые, кажется, говорят нам об обратном.

Итак, нужен ли нам план, в котором прописаны права человека в эпоху ИИ?

Да, мы, безусловно, делаем.

Вам почти нужно быть запертым в пещере и не иметь доступа к Интернету, чтобы не знать, что ИИ уже и все больше посягает на наши права. Недавняя эра ИИ изначально рассматривалась как AI для хорошего, а это означает, что мы могли бы использовать ИИ для улучшения человечества. По пятам AI для хорошего пришло осознание того, что мы тоже погружены в AI для плохих. Это включает в себя ИИ, который разработан или самоизменен, чтобы быть дискриминационным, и делает вычислительный выбор, наполняющий неправомерными предубеждениями. Иногда ИИ устроен таким образом, а в других случаях он сворачивает на эту неблагоприятную территорию.

Для моего постоянного и обширного освещения и анализа Закона об ИИ, Этики ИИ и других ключевых технологических и социальных тенденций ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Распаковка Билля о правах ИИ

Ранее я обсуждал Билль о правах ИИ и кратко повторю его здесь.

Кроме того, если вы хотите узнать мои подробные плюсы и минусы недавно выпущенного Билля о правах ИИ, я подробно изложил свой анализ в публикации на юристСм. ссылка здесь, юрист — известный онлайн-сайт юридических новостей и комментариев, широко известный как отмеченная наградами служба юридических новостей, управляемая глобальной командой репортеров, редакторов, комментаторов, корреспондентов и разработчиков контента со штаб-квартирой в Университете Питтсбурга. Закон в Питтсбурге, где она началась более 25 лет назад. Низкий поклон отличному и трудолюбивому коллективу юрист.

В Билле о правах ИИ есть пять ключевых категорий:

  • Безопасные и эффективные системы
  • Алгоритмическая защита от дискриминации
  • Конфиденциальность данных
  • Уведомление и объяснение
  • Человеческие альтернативы, рассмотрение и отступление

Обратите внимание, что я не нумеровал их от одного до пяти, поскольку это может означать, что они находятся в определенной последовательности или что одно из прав кажется более важным, чем другое. Будем считать, что у каждого из них свои достоинства. Все они в каком-то смысле одинаково достойны.

В качестве краткого указания на то, из чего состоит каждый из них, вот выдержка из официального официального документа:

  • Безопасные и эффективные системы: «Вы должны быть защищены от небезопасных или неэффективных систем. Автоматизированные системы должны разрабатываться при консультациях с различными сообществами, заинтересованными сторонами и экспертами в предметной области для выявления проблем, рисков и потенциального воздействия системы».
  • Алгоритмическая защита от дискриминации: «Вы не должны сталкиваться с дискриминацией со стороны алгоритмов, а системы должны использоваться и разрабатываться на справедливой основе. Алгоритмическая дискриминация возникает, когда автоматизированные системы способствуют неоправданному различному обращению или оказывают неблагоприятное воздействие на людей на основе их расы, цвета кожи, этнической принадлежности, пола (включая беременность, роды и связанные с ними заболевания, гендерную идентичность, интерсексуальный статус и сексуальную ориентацию), религии, возраста. , национальное происхождение, инвалидность, статус ветерана, генетическая информация или любая другая классификация, охраняемая законом».
  • Конфиденциальность данных: «Вы должны быть защищены от неправомерных действий с данными с помощью встроенных средств защиты, и вы должны иметь возможность влиять на то, как используются данные о вас. Вы должны быть защищены от нарушений конфиденциальности за счет выбора дизайна, который гарантирует, что такая защита включена по умолчанию, в том числе гарантирует, что сбор данных соответствует разумным ожиданиям и что собираются только данные, строго необходимые для конкретного контекста».
  • Уведомление и объяснение: «Вы должны знать, что используется автоматизированная система, и понимать, как и почему она влияет на результаты, которые влияют на вас. Проектировщики, разработчики и развертыватели автоматизированных систем должны предоставить общедоступную документацию на простом языке, включая четкое описание функционирования системы в целом и роль, которую играет автоматизация, уведомление о том, что такие системы используются, лицо или организация, ответственные за систему, и объяснения ясные, своевременные и доступные результаты».
  • Человеческие альтернативы, рассмотрение и отступление: «Вы должны иметь возможность отказаться, если это уместно, и иметь доступ к человеку, который может быстро рассмотреть и устранить проблемы, с которыми вы столкнулись. Вы должны иметь возможность отказаться от автоматизированных систем в пользу человеческой альтернативы, где это уместно».

По большому счету, это аспекты прав человека, которые уже давно обсуждаются в контексте этики ИИ и закона об ИИ. ссылка здесь. Белая книга, по-видимому, волшебным образом не вытаскивает кролика из шляпы в отношении какого-то недавно открытого или обнаруженного права, которое до сих пор не было объяснено в контексте эпохи ИИ.

Это нормально.

Можно утверждать, что объединение их в одну аккуратно упакованную и формализованную коллекцию оказывает жизненно важную услугу. Кроме того, будучи помазанным как известный ИИ Билль о правах, это еще больше помещает весь вопрос открыто и умело в сознание общественной сферы. Он объединяет существующее множество разрозненных дискуссий в единый набор, который теперь может быть провозглашен и передан всем заинтересованным сторонам.

Позвольте мне предложить этот список положительных реакций на объявленный ИИ Билль о правах:

  • Обеспечивает необходимую компиляцию ключевых принципов
  • Служит планом или основой для дальнейшего развития
  • Действует как озвученный призыв к действию
  • Подстегивает интерес и демонстрирует, что это серьезные соображения
  • Объединяет множество разрозненных дискуссий
  • Инициирует и способствует усилиям по внедрению этического ИИ
  • Несомненно, будет способствовать установлению законов об искусственном интеллекте.
  • Другое

Нам также необходимо учитывать менее чем благоприятные реакции, принимая во внимание, что предстоит проделать гораздо больше работы и что это только начало долгого пути на трудном пути управления ИИ.

Таким образом, несколько резкая или, скажем так, конструктивная критика Билля о правах ИИ включает:

  • Не имеет юридической силы и совершенно не имеет обязательной силы
  • Только консультативный и не считается государственной политикой
  • Менее полный по сравнению с другими опубликованными работами
  • В основном состоит из широких концепций и не имеет деталей реализации.
  • Будет сложно превратиться в реальные жизнеспособные практические законы
  • По-видимому, ничего не говорится о надвигающейся проблеме возможного запрета ИИ в некоторых контекстах.
  • Отчасти признает преимущества использования хорошо разработанного ИИ.
  • Другое

Возможно, самый известный резкий комментарий был сосредоточен на том факте, что этот Билль о правах ИИ не имеет юридической силы и, следовательно, не выдерживает критики, когда дело доходит до установления четких целей. Некоторые говорят, что, хотя Белая книга полезна и обнадеживает, в ней определенно не хватает зубов. Они задаются вопросом, что может получиться из так называемого пустого набора изящных предписаний.

Я обращусь к этим резким замечаниям через мгновение.

Между тем, в официальном документе подробно изложены ограничения того, что влечет за собой этот Билль о правах ИИ:

  • «План Билля о правах ИИ не имеет обязательной силы и не представляет собой политику правительства США. Он не заменяет, не изменяет и не дает прямого толкования какого-либо существующего закона, постановления, политики или международного документа. Оно не является обязательным руководством для общественности или федеральных агентств и, следовательно, не требует соблюдения описанных здесь принципов. Это также не определяет позицию правительства США в любых международных переговорах. Принятие этих принципов может не соответствовать требованиям существующих законов, положений, политик или международных документов или требованиям федеральных агентств, обеспечивающих их соблюдение. Эти принципы не предназначены и не запрещают и не ограничивают любую законную деятельность государственного органа, включая правоохранительную деятельность, национальную безопасность или разведывательную деятельность» (согласно официальному документу).

Для тех, кто поспешил опровергнуть Билль о правах ИИ как юридически необязательный, давайте проведем небольшой мысленный эксперимент над этим язвительным утверждением. Предположим, что белая книга была выпущена и имела полную силу закона. Осмелюсь сказать, что результат будет несколько катастрофическим, по крайней мере, в отношении как юридической, так и общественной реакции на прокламацию.

Законодатели будут возмущены тем, что при разработке таких законов не были предприняты нормативные процессы и юридические процедуры. Предприятия были бы в ярости, и это справедливо, если бы новые законы появились без достаточного уведомления и осведомленности о том, что это за законы. Последовали всевозможные возмущения и возмущения.

Не лучший способ тяготеть к укреплению прав человечества в эпоху ИИ.

Вспомните, что ранее я начал эту дискуссию с обсуждения ценности и жизненной силы чертежей.

Представьте, что кто-то пропустил этап создания чертежей и сразу же приступил к строительству дома вашей мечты. Как вы думаете, каким должен быть дом? Кажется справедливой ставкой, что дом не особенно соответствовал бы тому, что вы задумали. Полученная усадьба может быть полным беспорядком.

Суть в том, что нам действительно нужны чертежи, и теперь у нас есть один, чтобы двигаться вперед в выяснении разумных законов ИИ и расширении возможностей внедрения этического ИИ.

Поэтому я хотел бы обратиться к способам, которыми этот проект Билля о правах ИИ может быть превращен в дом, так сказать. Как мы будем использовать план? Каковы подходящие следующие шаги? Достаточно ли этого чертежа, или ему нужно больше мяса на костях?

Прежде чем мы перейдем к этим важным вопросам, я хотел бы сначала убедиться, что мы все согласны с тем, что касается природы ИИ и того, из чего состоит сегодняшний статус.

Устанавливаем прямую запись о сегодняшнем ИИ

Я хотел бы сделать чрезвычайно решительное заявление.

Готовы ли вы?

Сегодня нет разумного ИИ.

У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, получим ли мы разумный ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели порассуждать о разумном ИИ, эта дискуссия могла бы пойти в совершенно другом направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхинтеллектуальный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Я бы настоятельно рекомендовал, чтобы мы не придавали значения вещам и рассматривали сегодняшний вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

Будьте очень осторожны с антропоморфизацией современного ИИ.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Все это имеет особенно важные последствия для этики ИИ и предлагает удобное окно для извлеченных уроков (даже до того, как все уроки произойдут), когда дело доходит до попытки законодательно закрепить ИИ.

Помимо использования принципов этики ИИ в целом, возникает соответствующий вопрос о том, должны ли мы иметь законы, регулирующие различные виды использования ИИ. На федеральном уровне, уровне штатов и на местном уровне обсуждаются новые законы, касающиеся диапазона и характера разработки ИИ. Усилия по разработке и принятию таких законов носят постепенный характер. Этика ИИ служит, по крайней мере, временной мерой и почти наверняка в какой-то степени будет непосредственно включена в эти новые законы.

Имейте в виду, что некоторые категорически утверждают, что нам не нужны новые законы, касающиеся ИИ, и что наших существующих законов достаточно. Они предупреждают, что если мы примем некоторые из этих законов об ИИ, мы убьем золотого гуся, пресекая достижения в области ИИ, которые предлагают огромные социальные преимущества.

В предыдущих колонках я рассказывал о различных национальных и международных усилиях по разработке и принятию законов, регулирующих ИИ, см. ссылка здесь, Например. Я также рассмотрел различные принципы и руководства по этике ИИ, которые были определены и приняты различными странами, включая, например, усилия Организации Объединенных Наций, такие как свод этических норм ИИ ЮНЕСКО, принятый почти в 200 странах, см. ссылка здесь.

Вот полезный краеугольный список критериев или характеристик этического ИИ, касающихся систем ИИ, которые я ранее внимательно изучал:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Предполагается, что эти принципы этики ИИ должны серьезно использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ.

Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как уже подчеркивалось здесь, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна быть осведомлена и соблюдать этические предписания ИИ.

Теперь, когда я заложил полезную основу, мы готовы углубиться в Билль о правах ИИ.

Четыре основных способа реализации Билля о правах ИИ

Кто-то вручает вам чертеж и говорит, чтобы вы приступали к работе.

Что вы делаете?

В случае Билля о правах ИИ в качестве плана рассмотрите следующие четыре основных шага для продвижения вперед:

  • Внесите вклад в формулировку законов ИИ: Используйте проект, чтобы помочь в формулировании законов об ИИ, делая это, надеюсь, на согласованной основе на федеральном уровне, уровне штата и местном уровне (возможно, также помогая международным юридическим усилиям по ИИ).
  • Помощь в более широком внедрении этики ИИ: Используйте проект для разработки формулировок этики ИИ (иногда называемых «мягкими законами» по сравнению с юридически обязывающими «жесткими законами»), делая это, чтобы вдохновлять и направлять компании, отдельных лиц, государственные учреждения и другие группы к лучшим и более последовательным этическим нормам. Результаты ИИ.
  • Деятельность по разработке ИИ Shape: Используйте план, чтобы стимулировать создание методологий разработки ИИ и аспектов обучения, делая это, чтобы попытаться привлечь разработчиков ИИ и тех, кто внедряет или использует ИИ, чтобы они были более осведомлены о том, как разрабатывать ИИ в соответствии с желаемыми принципами этики ИИ и в ожидании предстоящих законов об искусственном интеллекте.
  • Мотивируйте появление ИИ, чтобы помочь контролировать ИИ: Используйте план, чтобы разработать ИИ, который будет использоваться в качестве системы сдержек и противовесов против других ИИ, которые могут свернуть на неблагоприятную территорию. Это одна из тех макроскопических точек зрения, с помощью которых мы можем использовать то, что кажется нам тревожным, чтобы также (можно сказать, по иронии судьбы) помочь нам защитить себя.

Я обсуждал каждый из этих четырех вышеупомянутых шагов в своих публикациях в колонке.

В данном обсуждении я хотел бы сосредоточиться на четвертом из перечисленных шагов, а именно на том, что Билль о правах ИИ может служить мотиватором к появлению ИИ для помощи в управлении ИИ. Это несколько шокирующий или неожиданный шаг для многих, кто еще не полностью окунулся в эту область развития ИИ.

Позвольте мне уточнить.

Простая аналогия должна помочь. В наши дни мы все привыкли к нарушениям кибербезопасности и взломам со стороны хакеров. Почти каждый день мы слышим или сталкиваемся с какой-нибудь последней лазейкой в ​​наших компьютерах, которая позволяет гнусным злодеям выхватывать наши данные или размещать подлую программу-вымогатель на наших ноутбуках.

Одним из способов борьбы с этими подлыми попытками является использование специализированного программного обеспечения, которое пытается предотвратить эти взломы. Почти наверняка у вас дома или на работе установлен пакет антивирусного программного обеспечения. Скорее всего, на вашем смартфоне есть что-то подобное, независимо от того, понимаете ли вы, что оно там есть или нет.

Я хочу сказать, что иногда вам нужно бороться с огнём огнём (см. мой репортаж об этом, например, на ссылка здесь и ссылка здесь).

В случае ИИ, попадающего в запрещенную сферу AI для плохих, мы можем попытаться использовать AI для хорошего который борется с этим злонамеренным AI для плохих. Это, конечно, не чудодейственное средство. Как вы знаете, между злоумышленниками, стремящимися проникнуть в наши компьютеры, и достижениями в области кибербезопасности постоянно идет игра в кошки-мышки. Это почти бесконечная игра.

Мы можем использовать ИИ, чтобы попытаться разобраться с ИИ, который пошел по запрещенному пути. Это поможет. Это не будет серебряной пулей, так как неблагоприятный ИИ, на который нацелены, почти наверняка будет разработан, чтобы избежать любой такой защиты. Это будет непрерывная игра в кошки-мышки ИИ против ИИ.

В любом случае ИИ, который мы используем для самозащиты, обеспечит некоторую защиту от плохого ИИ. Таким образом, нам, несомненно, необходимо разработать ИИ, который сможет защитить или защитить нас. И мы также должны стремиться создать защищающий ИИ, чтобы он адаптировался по мере того, как приспосабливается плохой ИИ. Будет свирепое подобие молниеносной кошки-мышки.

Не всем нравится такое расширение роли ИИ.

Те, кто уже воспринимает ИИ как однородный аморфный конгломерат, получат мурашки по коже и кошмары от этого притворного гамбита ИИ против ИИ. Если мы попытаемся противопоставить огонь огню, возможно, мы просто разожжем еще больший пожар. ИИ станет огромным костром, который мы больше не контролируем, и который решит поработить человечество или стереть нас с лица земли. Когда дело доходит до обсуждения ИИ как экзистенциального риска, нас обычно убеждают в том, что все ИИ объединятся, см. мое обсуждение этих вопросов на ссылка здесь. Видите ли, нам говорят, что каждая часть ИИ схватит своих собратьев ИИ и станет одной большой унитарной семьей.

Это ужасный и явно тревожный сценарий разумного ИИ как единой мафии «все за одного» и «один за всех».

Хотя вы можете свободно высказывать предположения относительно того, что это может когда-нибудь произойти, я уверяю вас, что на данный момент ИИ, который у нас есть сегодня, состоит из грузовиков разрозненных разрозненных программ ИИ, у которых нет особого способа вступить в сговор друг с другом.

Сказав это, я уверен, что те, кто горячо верит в теории заговора ИИ, будут настаивать на том, что я намеренно сказал это, чтобы скрыть правду. Ага! Может быть, мне платит сегодняшний ИИ, который уже планирует великий захват ИИ (да, сэр, я буду купаться в богатстве, когда ИИ будет править). Или, и я совершенно точно не одобряю эту другую точку зрения, возможно, я слепо не знаю, как ИИ тайно замышляет за нашими спинами. Я думаю, нам придется подождать и посмотреть, являюсь ли я частью переворота ИИ или жалким ИИ-путешественником (ой, это больно).

Возвращаясь к земным соображениям, давайте кратко рассмотрим, как можно использовать современный ИИ для реализации Билля о правах ИИ. Я буду удобно и кратко называть это как Хороший ИИ.

Мы будем использовать пять краеугольных камней, воплощенных в Билле о правах ИИ:

  • Хороший ИИ для продвижения Безопасные и эффективные системы: Всякий раз, когда вы подвергаетесь воздействию системы ИИ или используете ее, «Хороший ИИ» пытается выяснить, является ли используемый ИИ небезопасным или неэффективным. При таком обнаружении Хороший ИИ может предупредить вас или предпринять другие действия, включая блокировку Плохого ИИ.
  • Хороший ИИ для предоставления Алгоритмическая защита от дискриминации: При использовании системы ИИ, которая может содержать дискриминационные алгоритмы, Хороший ИИ пытается установить, существует ли неадекватная защита для вас, и стремится определить, действительно ли существуют неправомерные предубеждения в используемом ИИ. Хороший ИИ может информировать вас, а также потенциально автоматически сообщать о другом ИИ в различные органы, как это может быть предусмотрено законами об ИИ и юридическими требованиями.
  • Хороший ИИ для сохранения Конфиденциальность данных: Этот тип хорошего ИИ пытается защитить вас от вторжений в конфиденциальность данных. Когда другой ИИ попытается запросить у вас данные, которые, возможно, на самом деле не нужны, «Хороший ИИ» сообщит вам об этом. Хороший ИИ также потенциально может маскировать ваши данные таким образом, что после передачи другому ИИ ваши права на конфиденциальность данных сохранятся. И т.п.
  • Хороший ИИ для создания Уведомление и объяснение: Мы все, вероятно, столкнемся с системами ИИ, которым крайне не хватает надлежащих и подходящих уведомлений и которые, к сожалению, не могут продемонстрировать адекватное объяснение своих действий. Хороший ИИ может попытаться интерпретировать или опросить другой ИИ, делая это потенциально для выявления уведомлений и объяснений, которые должны были быть предоставлены. Даже если это невозможно сделать в данном случае, хороший ИИ, по крайней мере, предупредит вас о недостатках другого ИИ и, возможно, сообщит об ИИ назначенным органам на основании установленных законов об ИИ и юридических требований.
  • Хороший ИИ для предложения Человеческие альтернативы, рассмотрение и отступление: Предположим, вы используете систему ИИ, и кажется, что ИИ не справляется с поставленной задачей. Вы можете не осознавать, что дела идут плохо, или вы можете быть несколько настороженными и неуверенными в том, что делать в этой ситуации. В таком случае Хороший ИИ будет молча изучать, что делает другой ИИ, и может предупредить вас о жизненно важных проблемах, связанных с этим ИИ. Затем вам будет предложено запросить человеческую альтернативу ИИ (или Хороший ИИ может сделать это от вашего имени).

Чтобы лучше понять, как такого рода Хороший ИИ могут быть разработаны и внедрены, см. мою популярную и высоко оцененную книгу об ИИ (имею честь сказать, что она была отмечена как «десятка лучших») о том, что я обычно называю ангелами-хранителями ИИ, см. ссылка здесь.

Заключение

Я знаю, что вы думаете. Если у нас есть Хороший ИИ, созданный для нашей защиты, предположим, что Хороший ИИ искажается и становится Плохим ИИ. Знаменитая или печально известная латинская крылатая фраза кажется полностью подходящей для этой возможности: Quis Custodiet Ipsos Custodes?

Фраза приписывается римскому поэту Ювеналу и может быть найдена в его произведении под названием Сатиры, и может быть свободно переведено как означающее, кто будет охранять или следить за самими охранниками. Многие фильмы и сериалы, такие как Star Trek неоднократно использовали эту линию.

Это, конечно, потому что это отличный момент.

Разумеется, любые законы об ИИ, которые будут приняты, должны охватывать как плохой ИИ, так и даже хороший ИИ, который испортится. Вот почему крайне важно написать разумные и всеобъемлющие законы об искусственном интеллекте. Законодатели, которые просто пытаются бросить случайный юридический язык в стену и надеются, что он будет придерживаться законов об искусственном интеллекте, обнаружат, что сильно не достигают цели.

Нам это не нужно.

У нас нет ни времени, ни мы не можем нести социальные расходы, чтобы справиться с неадекватно разработанными законами об искусственном интеллекте. Я указывал, что, к сожалению, время от времени мы наблюдаем новые законы, связанные с ИИ, которые плохо составлены и изобилуют всевозможными юридическими недугами, см., например, мой тщательный анализ закона об аудите предубеждений ИИ в Нью-Йорке (NYC) на ссылка здесь.

Давайте удостоверимся, что мы правильно используем план Билля о правах ИИ, который у нас сейчас есть в отношении ИИ. Если мы проигнорируем проект, мы проиграем, усилив нашу игру. Если мы неправильно реализуем план, позор нам за то, что мы узурпировали полезную основу.

Уважаемый римский поэт Ювенал сказал еще кое-что, что мы можем использовать в этом случае: Анима Сана в теле Сано.

Как правило, это переводится в утверждение, что было бы благоразумно иметь как здоровый или здоровый разум, так и здоровое или здоровое тело. Это позволяет нам выносить любой труд, согласно Ювеналу, и, несомненно, будет единственным путем к жизни в мире или добродетели.

Нам пора использовать здравый ум и здоровое тело, чтобы убедиться, что мы обеспечиваем человечеству сохранение и прочное укрепление наших прав человека в развивающемся мире вездесущего и временами неблагоприятного ИИ. Это здравый совет от римлян, которому мы должны следовать в сегодняшней спешке среди беспорядочной эпохи ИИ и будущего, решительно наполненного как хорошим, так и плохим ИИ.

Источник: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- билль о правах, включая-и-удивительно-использование-ai-прямо/