Внедрение юридических рассуждений в ИИ может разумно привести в соответствие с человеческими ценностями, говорится в этике ИИ и законе об ИИ

В сегодняшней колонке я собираюсь сплести мириады, казалось бы, разрозненных тем, связанных с ИИ, в одну красиво сотканную ткань.

Готовы ли вы?

Представьте, что вы используете приложение на базе ИИ, которое помогает вам выполнять какую-то важную задачу. Возможно, дело в финансах или может быть связано со здоровьем. Суть в том, что вы зависите от ИИ, чтобы он поступал правильно и действовал безопасно и надежно.

Предположим, что ИИ сворачивает на неэтичную территорию.

Вы можете не осознавать, что это делает ИИ.

Например, ИИ может полагаться на потенциально скрытые дискриминационные факторы, такие как раса или пол, хотя у вас может не быть никаких действенных способов распознать неправомерное использование. Вот вы, в полном одиночестве, получаете короткий конец палки через ИИ, который либо был разработан с самого начала проблематичным образом, либо сумел направиться в рискованную и граничащую с этической опасностью (я буду говорить больше о это через мгновение).

Что вы можете сделать или что можно сделать с ИИ, который выбирает неэтичный путь?

Помимо попыток заранее сконструировать ИИ таким образом, чтобы он не совершал такого рода коварных действий, ранее я также подробно указывал, что растет интерес к встраиванию Проверка этики ИИ компонент в растущую трясину других систем искусственного интеллекта Дикого Запада, которые выбрасываются на рынок. Идея состоит в том, чтобы попытаться предотвратить отклонение приложения с искусственным интеллектом от этических аспектов, мы могли бы использовать дополнительный искусственный интеллект для проверки и балансировки. Этот добавленный ИИ может находиться за пределами целевого приложения ИИ или может быть компонентом, встроенным или имплантированным непосредственно в ИИ, который мы хотим дважды проверить.

Как я уже говорил, см. ссылка здесь: «Недавно появившаяся тенденция состоит в попытке встроить этические барьеры в ИИ, которые будут ловить, когда остальная часть системы ИИ начнет выходить за установленные этические границы. В некотором смысле, цель состоит в том, чтобы использовать сам ИИ, чтобы не допустить нарушения этических норм. Можно сказать, что мы стремимся к тому, чтобы ИИ исцелял сам себя» (Лэнс Элиот, «Создание этичного ИИ, который отслеживает неэтичный ИИ и пытается удержать плохой ИИ от действий», Forbes, 28 марта 2022 г.).

Вам также может быть интересна моя книга о Боты-хранители с искусственным интеллектом, иногда называемых ангелами-хранителями, которые охватывают технические основы этой современной встроенной системы двойной проверки AI-внутри-AI, см. ссылка здесь.

Суть в том, что ваш бекон, к счастью, может быть спасен с помощью встроенного ИИ, дважды проверяющего этический элемент, который был разработан и внедрен в приложение ИИ, которое вы используете. Но будет ли этого достаточно для защиты, чтобы действительно убедиться, что ИИ не заставит вас полностью оцепенеть и не рискнет даже проникнуть в опасную почву?

Видите ли, приложение ИИ может работать якобы незаконный действует.

Одно дело иметь ИИ, который входит в серую зону того, что мы считаем этичным или неэтичным поведением. Столь же сбивающее с толку поведение и, вероятно, усиливающееся беспокойство влекут за собой ИИ, который просто перепрыгивает через акулу и погружается в дрянную тьму откровенных незаконных действий.

Незаконный ИИ — это плохо. Оставлять незаконный ИИ без присмотра — это плохо. Некоторые ученые-правоведы открыто обеспокоены тем, что появление и повсеместное распространение ИИ постепенно и ужасающе подорвет наше подобие верховенство права, см. мой анализ на ссылка здесь.

Подождите секунду, можете сказать вы.

У вас может возникнуть соблазн подумать, что разработчики ИИ никогда запрограммировать свой ИИ, чтобы он пошел против закона. Невообразимо. Так поступают только злые злодеи (кстати, имейте в виду, что есть и те, кто намеренно разрабатывает и использует ИИ в злых целях, что вызывает растущий интерес у преступников и других лиц, желающих использовать ИИ для гнусной деятельности).

Извините, но было бы ошибочно предполагать, что все незлобные разработчики ИИ будут строго следить за тем, чтобы их ИИ был полностью законопослушным. Возможно, ИИ самонастраивается и занимается незаконной деятельностью. Конечно, существует также вероятность того, что разработчики ИИ либо хотели, чтобы ИИ действовал незаконно, либо не знали, что представляет собой противозаконные и законные действия, когда создавали ИИ (да, это вполне возможно, а именно, что полностью технологичная команда искусственного интеллекта может не знать о юридических махинациях своего искусственного интеллекта, что непростительно и все же происходит с тревожной частотой).

Что можно сделать по этому поводу?

Еще раз, помимо попытки гарантировать, что ИИ за воротами является железным и законным, дополнительный подход к наращиванию оборотов включает встраивание или внедрение компонента ИИ, который выполняет юридическую двойную проверку для остальной части приложения ИИ. Сидя тихо и часто без предупреждения, этот добавленный ИИ наблюдает за остальным ИИ, чтобы попытаться определить, собирается ли ИИ выйти из-под контроля или, по крайней мере, выйти за рамки установленных законом или нормативных ограничений.

Теперь у нас есть два вида двойной проверки ИИ, которые потенциально могут быть встроены в приложение ИИ:

  • Двойная проверка этики ИИ: В режиме реального времени этот компонент или надстройка ИИ оценивает остальную часть ИИ на предмет этичного и неэтичного поведения, которое демонстрирует ИИ.
  • Двойная проверка AI Legal: В режиме реального времени этот компонент или надстройка ИИ оценивает остальную часть ИИ, чтобы убедиться, что он не выходит за рамки правового краеугольного камня, а также для обнаружения возникающих незаконных действий ИИ.

Чтобы уточнить, это относительно новые концепции, и поэтому ИИ, который вы используете сегодня, может находиться в любом из этих нынешних условий:

  • ИИ, в который вообще не включены двойные проверки
  • ИИ, у которого есть средство двойной проверки этики ИИ, но нет других средств двойной проверки.
  • ИИ, в который включена двойная проверка AI Legal, но нет других двойных проверок
  • ИИ, который имеет как двойную проверку этики ИИ, так и двойную проверку правовых норм ИИ.
  • Другие контрактные услуги

Есть несколько заметно сложных аспектов двойной проверки AI Ethics и AI Legal двойной проверки, работающих бок о бок в приложении AI как родственные брат и сестра. Это тип дуализма, который сложнее координировать, чем вы можете предположить (я думаю, все мы знаем, что между братьями и сестрами могут быть самые крепкие узы, хотя они также могут время от времени драться, как Диккенс, и энергично сопротивляться друг другу). Просмотры).

Я подробно обсуждал этот тип трудного дуализм: «В ИИ для общественного блага наблюдается забытый дуализм, связанный с отсутствием охвата как роли искусственного морального агента, так и искусственного юридического мышления в продвинутых системах ИИ. Усилия исследователей ИИ и разработчиков ИИ, как правило, были сосредоточены на том, как создавать и внедрять искусственных моральных агентов для принятия моральных решений, когда система ИИ работает в полевых условиях, но они также не были сосредоточены на использовании искусственных возможностей юридического обоснования и не сочетались с ними. , что в равной степени необходимо для надежных моральных и правовых результатов» (Лэнс Элиот, «Забытый дуализм искусственной моральной свободы и искусственного юридического мышления в ИИ для общественного блага», Ежегодная конференция CRCS Гарвардского университета, 2020 г., Гарвардский центр исследований и вычислительного общества)

Если вы хотите поболтать о том, почему может возникнуть противоречие между двойной проверкой ИИ по этике и юридической двойной проверкой ИИ, вы можете найти эту заметную цитату с умопомрачительной концептуальной ценностью: «Закон может разрешать определенные действия, даже если этот поступок аморален; и закон может запретить действие, даже если это действие морально допустимо или даже морально необходимо» (Шелли Каган, Пределы нравственности, 1998).

Давайте немного сместим наше внимание и посмотрим, как эти двойные проверки увязываются с другой тщательно изученной темой ИИ, а именно Ответственный AI или согласованное рассмотрение согласования человеческих ценностей и ИИ.

Общее представление состоит в том, что мы хотим, чтобы ИИ придерживался правильных и желательных человеческих ценностей. Некоторые называют это Ответственный AI. Другие так же рассуждают Подотчетный ИИ, Надежный ИИкачества Выравнивание ИИ, все из которых касаются одного и того же краеугольного принципа. Мое обсуждение этих важных вопросов см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Как мы можем привести ИИ в соответствие с человеческими ценностями?

Как предполагалось ранее, мы надеемся, что разработчики ИИ будут осведомлены о разработке ИИ, который достигает приверженности ответственному ИИ. К сожалению, они не могли бы по причинам, выясненным ранее. Кроме того, они могут попытаться это сделать, но тем не менее ИИ в конечном итоге самоадаптируется за пределы существенной сферы этического поведения или, возможно, в незаконные воды.

Хорошо, тогда нам нужно рассмотреть наши удобные денди-двойные проверки как средство укрепить эти риски и риски. Использование хорошо разработанной системы двойной проверки этики ИИ может существенно помочь в приведении ИИ в соответствие с человеческими ценностями. Точно так же использование хорошо разработанной системы двойной проверки AI Legal может существенно помочь в приведении AI в соответствие с человеческими ценностями.

Таким образом, решающим и пока еще малоизвестным средством достижения ответственного ИИ, надежного ИИ, подотчетного ИИ, согласования ИИ и т. д. будет использование средств двойной проверки ИИ, таких как средство двойной проверки этики ИИ и средство двойной проверки этики ИИ. Двойная проверка AI Legal, которая будет неустанно работать как двойная проверка ИИ, в который они встроены.

В этом обсуждении я хотел бы более подробно остановиться на природе и конструкциях юридических двойных проверок ИИ, которые могут быть встроены в ИИ. Для этого может быть полезно поделиться с вами некоторыми дополнительными сведениями по общей теме ИИ и право.

Серьезное исследование того, как ИИ и закон смешиваются друг с другом, см. в моем обсуждении на ссылка здесь. В моем проницательном взгляде на ИИ и право связи, я предлагаю эту простую концепцию двух основных способов взаимосвязи ИИ и закона:

  • (1) Право, применимое к ИИ: Разработка, принятие и обеспечение соблюдения законов, применяемых к регулированию или управлению искусственным интеллектом в нашем обществе.
  • (2) Применение ИИ к закону: Технология искусственного интеллекта, разработанная и примененная в законе, включая правовое обоснование на основе ИИ (AILR), внедренное в высокотехнологичные приложения LegalTech для автономного или полуавтономного выполнения юридических задач.

Первая из перечисленных точек зрения состоит в рассмотрении того, как существующие и новые законы будут регулировать ИИ. Вторая из перечисленных точек зрения связана с применением ИИ к закону.

Эта последняя категория обычно включает использование юридического обоснования на основе ИИ (AILR) в различных онлайн-инструментах, используемых юристами. Например, ИИ может быть частью пакета управления жизненным циклом контракта (CLM), который помогает юристам определять договорные формулировки, которые будут полезны для составления новых контрактов, или может обнаруживать контракты, содержащие юридически невыразительные формулировки, допускающие ошибки или юридические лазейки. (мой взгляд на так называемые «запахи закона», которые может распознать ИИ, см. ссылка здесь).

Мы неизбежно будем применять ИИ к закону, который станет доступным для использования широкой публикой и не требует участия адвоката. Прямо сейчас, в результате различных ограничений, в том числе UPL (Несанкционированная практика права), предоставление приложений для юридических консультаций на основе ИИ является сложным и спорным вопросом, см. Мое обсуждение на ссылка здесь.

Я привел это введение об ИИ и праве, чтобы указать, что еще одним инструментом использования ИИ в применении к закону будет создание двойных проверок AI Legal.

Да, такое же технологическое мастерство, связанное с применением ИИ к закону, может выполнять двойную функцию, используя ИИ в качестве встроенного или имплантированного ИИ для двойной проверки юридических лиц. Двойная проверка AI Legal — это компонент, который должен разбираться в юридических аспектах. Когда остальная часть приложения ИИ выполняет различные действия, двойная проверка AI Legal проверяет, делает ли приложение ИИ законно и в рамках законных ограничений.

Компонент двойной проверки AI Legal не обязательно должен охватывать всю гамму всего, что нужно знать о законе. В зависимости от характера приложения ИИ в отношении цели и действий ИИ в целом, двойная проверка AI Legal может быть намного более узкой с точки зрения содержащейся в ней юридической экспертизы.

Я нашел полезную основу для демонстрации того, как ИИ в юридической сфере охватывает ряд автономных возможностей, известных как уровни автономии (LoA). Для обзора см. мой Forbes публикация в колонке от 21 ноября 2022 г. «Бессмысленное всестороннее убедительное обоснование того, почему юристы должны знать об ИИ и законе» на ссылка здесь, а подробное техническое описание см. в моей подробной исследовательской статье в Журнал вычислительного права Массачусетского технологического института от 7 декабря 2021 г. см. ссылка здесь.

Структура разъясняет пять уровней ИИ, используемых в юридических усилиях:

  • Уровень 0: отсутствие автоматизации юридической работы на основе ИИ
  • Уровень 1: Простая автоматизация помощи для юридической работы на основе ИИ
  • Уровень 2: Расширенная автоматизация помощи для юридической работы на основе ИИ
  • Уровень 3: Полуавтономная автоматизация юридической работы на основе ИИ
  • Уровень 4: Автономный домен для юридической работы на основе ИИ
  • Уровень 5: Полностью автономный для юридической работы на основе ИИ

Я кратко опишу их здесь.

Уровень 0 считается уровнем отсутствия автоматизации. Юридическое обоснование и юридические задачи выполняются ручными методами и в основном выполняются с использованием бумажных подходов.

Уровень 1 состоит из простой автоматизации помощи для юридических рассуждений ИИ. Примеры этой категории могут включать использование повседневных компьютерных средств обработки текстов, использование повседневных компьютерных электронных таблиц, доступ к юридическим документам в Интернете, которые хранятся и извлекаются в электронном виде, и так далее.

Уровень 2 состоит из расширенной автоматизации помощи для юридических рассуждений ИИ. Примеры этой категории могут включать использование рудиментарной обработки естественного языка (NLP) в стиле запросов, упрощенных элементов машинного обучения (ML), инструментов статистического анализа для прогнозирования судебных дел и т. д.

Уровень 3 состоит из полуавтономной автоматизации юридических рассуждений ИИ. Примеры этой категории могут включать использование передовых систем, основанных на знаниях (KBS), для юридических рассуждений, использование машинного обучения и глубокого обучения (ML/DL) для юридических рассуждений, продвинутого НЛП и так далее.

Уровень 4 состоит из доменных автономных компьютерных систем для юридических рассуждений ИИ. На этом уровне повторно используется концептуальное понятие доменов операционного проектирования (ODD), используемое для беспилотных автомобилей, но применительно к правовой сфере. Правовые области могут быть классифицированы по функциональным областям, таким как семейное право, право недвижимости, право банкротства, экологическое право, налоговое право и т. д.

Уровень 5 состоит из полностью автономных компьютерных систем для юридического обоснования ИИ. В некотором смысле уровень 5 является надмножеством уровня 4 с точки зрения охвата всех возможных правовых областей. Пожалуйста, поймите, что это довольно сложная задача.

Вы можете представить себе эти Уровни Автономии наравне с аналогичным использованием при обсуждении беспилотных автомобилей и автономных транспортных средств (также основанных на официальном стандарте SAE, см. мой обзор на ссылка здесь). У нас еще нет самоуправляемых автомобилей SAE Level 5. Мы приближаемся к автономным автомобилям SAE Level 4. Большинство обычных автомобилей соответствуют уровню SAE 2, в то время как некоторые новые автомобили приближаются к уровню SAE 3.

В юридической сфере у нас еще нет AILR 5-го уровня. Мы касаемся некоторого Уровня 4, хотя и в очень узких ODD. Уровень 3 начинает выходить на свет, в то время как основа AILR сегодня в основном находится на уровне 2.

В недавней исследовательской статье об ИИ применительно к закону была предложена типизация, известная как Закон сообщает Кодекс. Исследователь утверждает следующее: «Одна из основных целей Закон сообщает Кодекс задача состоит в том, чтобы научить ИИ следовать духу закона» (Джон Дж. Нэй, «Правовой информационный кодекс: юридический информационный подход к согласованию искусственного интеллекта с людьми», Северо-западный журнал технологий и интеллектуальной собственности, Том 20, готовится к печати). Есть несколько существенных соображений, которые Закон сообщает Кодекс появится мантра, и я познакомлю вас с некоторыми из этих краеугольных заповедей.

Прежде чем погрузиться в тему, я хотел бы сначала заложить некоторые важные основы об ИИ и, в частности, об этике ИИ и законах об ИИ, сделав это, чтобы убедиться, что обсуждение будет контекстуально разумным.

Растущее осознание этического ИИ, а также закона об ИИ

Недавняя эра ИИ изначально рассматривалась как AI для хорошего, а это означает, что мы могли бы использовать ИИ для улучшения человечества. По пятам AI для хорошего пришло осознание того, что мы тоже погружены в AI для плохих. Это включает в себя ИИ, который разработан или самоизменен, чтобы быть дискриминационным, и делает вычислительный выбор, наполняющий неправомерными предубеждениями. Иногда ИИ устроен таким образом, а в других случаях он сворачивает на эту неблагоприятную территорию.

Я хочу полностью убедиться, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели порассуждать о разумном ИИ, эта дискуссия могла бы пойти в совершенно другом направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхинтеллектуальный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Я бы настоятельно рекомендовал, чтобы мы не придавали значения вещам и рассматривали сегодняшний вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

Будьте очень осторожны с антропоморфизацией современного ИИ.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Все это имеет особенно важные последствия для этики ИИ и предлагает удобное окно для извлеченных уроков (даже до того, как все уроки произойдут), когда дело доходит до попытки законодательно закрепить ИИ.

Помимо использования принципов этики ИИ в целом, возникает соответствующий вопрос о том, должны ли мы иметь законы, регулирующие различные виды использования ИИ. На федеральном уровне, уровне штатов и на местном уровне обсуждаются новые законы, касающиеся диапазона и характера разработки ИИ. Усилия по разработке и принятию таких законов носят постепенный характер. Этика ИИ служит, по крайней мере, временной мерой и почти наверняка в какой-то степени будет непосредственно включена в эти новые законы.

Имейте в виду, что некоторые категорически утверждают, что нам не нужны новые законы, касающиеся ИИ, и что наших существующих законов достаточно. Они предупреждают, что если мы примем некоторые из этих законов об ИИ, мы убьем золотого гуся, пресекая достижения в области ИИ, которые предлагают огромные социальные преимущества.

В предыдущих колонках я рассказывал о различных национальных и международных усилиях по разработке и принятию законов, регулирующих ИИ, см. ссылка здесь, Например. Я также рассмотрел различные принципы и руководства по этике ИИ, которые были определены и приняты различными странами, включая, например, усилия Организации Объединенных Наций, такие как свод этических норм ИИ ЮНЕСКО, принятый почти в 200 странах, см. ссылка здесь.

Вот полезный краеугольный список критериев или характеристик этического ИИ, касающихся систем ИИ, которые я ранее внимательно изучал:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Предполагается, что эти принципы этики ИИ должны серьезно использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ.

Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как уже подчеркивалось здесь, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна быть осведомлена и соблюдать этические предписания ИИ.

Я тоже недавно осматривал ИИ Билль о правах таково официальное название официального документа правительства США под названием «План Билля о правах ИИ: заставить автоматизированные системы работать на благо американского народа», который стал результатом многолетних усилий Управления научно-технической политики (OSTP). ). OSTP — это федеральная организация, которая консультирует американского президента и администрацию США по различным технологическим, научным и инженерным аспектам государственной важности. В этом смысле можно сказать, что этот Билль о правах ИИ является документом, одобренным и одобренным существующим Белым домом США.

В Билле о правах ИИ есть пять ключевых категорий:

  • Безопасные и эффективные системы
  • Алгоритмическая защита от дискриминации
  • Конфиденциальность данных
  • Уведомление и объяснение
  • Человеческие альтернативы, рассмотрение и отступление

Я внимательно изучил эти заповеди, см. ссылка здесь.

Теперь, когда я заложил полезную основу для этих связанных тем, связанных с этикой ИИ и законами об ИИ, мы готовы перейти к опрометчивой теме юридических двойных проверок ИИ и сфере Закон сообщает Кодекс.

Юридические двойные проверки ИИ, встроенные в ИИ, для согласования человеческих ценностей

я иногда обращаюсь к Юридические двойные проверки AI через аббревиатуру AI-LDC. Это немного визуально раздражает тех, кто не знаком с аббревиатурой. Таким образом, я не буду использовать эту конкретную аббревиатуру в этом обсуждении, но хотел бы упомянуть ее для вас в качестве предупреждения.

Чтобы раскрыть некоторые сложности двойной проверки AI Legal, давайте рассмотрим следующие основные моменты:

  • Использование двойных проверок AI Legal в качестве механизма согласования человеческих ценностей AI
  • Соответственно, более обширный ИИ потребует более надежных юридических двойных проверок ИИ.
  • Юридические двойные проверки AI принимают закон и, в частности, не создают закон (предположительно)
  • Тонкий баланс между ИИ. Юридическое воплощение закона в виде правил и стандартов.
  • Требование доказательств пудинга, когда дело доходит до соблюдения закона ИИ

Из-за нехватки места я пока рассмотрю только эти пять пунктов, хотя, пожалуйста, следите за дальнейшим освещением в моей колонке, включающей дополнительные и не менее важные соображения по этим быстро развивающимся и продвигающимся вперед вопросам.

Прямо сейчас пристегните ремень безопасности и приготовьтесь к бодрящему путешествию.

  • Использование двойных проверок AI Legal в качестве механизма согласования человеческих ценностей AI

Существует множество способов попытаться достичь гармоничного соответствия между ИИ и человеческими ценностями.

Как упоминалось ранее, мы можем создавать и распространять этические принципы ИИ и стремиться к тому, чтобы разработчики ИИ и те, кто разрабатывает и эксплуатирует ИИ, соблюдали эти краеугольные камни. К сожалению, это само по себе не поможет. У вас есть некоторые разработчики, которые неизбежно не получат сообщение. У вас есть некоторые изобретатели, которые будут выставлять напоказ этический ИИ и пытаться обойти несколько расплывчатые предписанные принципы. И так далее.

Использование подходов «мягкого права», подразумевающих этику ИИ, должно почти неизбежно сочетаться с направлениями «жесткого права», такими как принятие законов и правил, которые пошлют мощный сигнал всем, кто создает или использует ИИ. Длинная рука закона может прийти к вам, если вы не разумно используете ИИ. Звук лязга тюремных дверей мог привлечь пристальное внимание.

Однако большая проблема заключается в том, что иногда дверь сарая уже выпускает лошадей. Выставленный на поле ИИ потенциально будет производить всевозможные незаконные действия и продолжать делать это до тех пор, пока не только не будет пойман, но и до тех пор, пока какое-либо правоприменение, наконец, не примет меры, чтобы остановить поток незаконных действий. Все это может занять время. Между тем, людям так или иначе вредят.

В этом набеге появляется двойная проверка AI Legal.

Находясь в приложении ИИ, средство двойной проверки AI Legal может немедленно определить, когда ИИ нарушает закон. Двойная проверка AI Legal может остановить AI на своем пути. Или компонент может предупреждать людей о выявленных незаконных действиях, делая это своевременно, что может подтолкнуть контролеров к срочным корректирующим действиям. Существует также рассматриваемая формализованная регистрация, которую компонент может создать, обеспечивая осязаемое подобие контрольного журнала для целей кодирования неблагоприятных действий ИИ.

Говорят, что наши законы представляют собой форму многоагентного конгломерата, так что законы неизбежно представляют собой смесь того, что общество стремилось создать в качестве баланса между вероятными противоречивыми взглядами на правильное и ненадлежащее поведение общества. Таким образом, двойная проверка AI Legal, основанная на наших законах, воплощает эту смесь.

Примечательно, что это больше, чем просто программирование списка окончательных юридических правил. Законы, как правило, более податливы и стремятся к всеобъемлющим стандартам, а не к определению самых мелких микроскопических правил. Сложностей хватает.

Возвращаясь к упомянутому ранее исследовательскому документу, вот как можно рассматривать эти соображения в отношении стремления к согласованию ИИ: «Право, прикладная философия согласования нескольких агентов, однозначно соответствует этим критериям. Выравнивание является проблемой, потому что мы не можем заблаговременного указать правила, которые полностью и доказуемо определяют правильное поведение ИИ. Точно так же стороны юридического договора не могут предвидеть все непредвиденные обстоятельства своих отношений, а законодатели не могут предсказать конкретные обстоятельства, при которых будут применяться их законы. Вот почему большая часть права представляет собой совокупность стандартов» (там же).

Воплощение закона в двойную проверку AI Legal намного сложнее, чем вы могли подумать на первый взгляд.

По мере развития ИИ нам нужно будет соответствующим образом использовать эти достижения. Оказывается, что хорошо для гуся, хорошо и для гусака. Те из нас, кто добивается прогресса в области ИИ применительно к закону, расширяют границы ИИ и, несомненно, создают новые достижения, которые в конечном итоге могут способствовать прогрессу ИИ в целом.

  • Соответственно, более обширный ИИ потребует более надежных юридических двойных проверок ИИ.

Игра в кошки-мышки противостоит этой теме.

Скорее всего, по мере дальнейшего развития ИИ любому компоненту двойной проверки AI Legal будет все труднее и труднее справляться с проблемами. Например, приложение ИИ, подвергающееся тщательной проверке, может иметь недавно разработанные супер-хитрые способы скрыть незаконные действия, предпринимаемые ИИ. Даже если ИИ не идет закулисным путем, общая сложность ИИ сама по себе может стать пугающим препятствием для проведения двойной проверки AI Legal.

Вот как это становится особенно значимым.

Предположим, разработчик ИИ или какая-то фирма, использующая ИИ, заявляет, что в приложение на основе ИИ встроена система двойной проверки AI Legal. Вуаля, они, кажется, теперь умыли руки от любых дальнейших проблем. Система двойной проверки AI Legal позаботится обо всем.

Это не так.

Двойная проверка AI Legal может быть недостаточной для характера задействованного приложения AI. Существует также вероятность того, что средство двойной проверки AI Legal устареет, возможно, не будет обновляться с учетом последних законов, касающихся приложения AI. Можно предвидеть множество причин, по которым простое присутствие двойного проверяющего AI Legal не будет серебряной пулей.

Подумайте об этих выводах из ранее цитированного исследования: «По мере развития ИИ мы можем многократно устанавливать более высокие планки продемонстрированных возможностей юридического понимания. Если разработчик утверждает, что его система имеет расширенные возможности по задачам, он должен продемонстрировать соответственно расширенное юридическое понимание и юридические, логические способности ИИ, которые практически не имеют потолка сложности при рассмотрении трясины законов и правил во времени, прецедентах и ​​юрисдикциях. (там же).

  • Юридические двойные проверки AI принимают закон и, в частности, не создают закон (предположительно)

Я уверен, что некоторые из вас ошеломлены идеей иметь эти двойные проверки AI Legal.

Одно из часто высказываемых опасений заключается в том, что мы, по-видимому, позволим ИИ решать наши законы за нас. Боже мой, вы можете подумать, какая-то часть автоматизации настигнет человечество. Эти проклятые встроенные двойные контролеры AI Legal станут королями наших законов по умолчанию. Что бы они ни сделали, все будет так, как кажется по закону.

Людьми будет управлять ИИ.

И эти двойные проверки AI Legal — это скользкий путь, который ведет нас туда.

Контраргумент состоит в том, что такие разговоры — это материал для теорий заговора. Вы дико постулируете и доводите себя до нервного срыва. Реальность такова, что эти перепроверщики AI Legal не разумны, они не собираются захватить планету, и шумиха по поводу их экзистенциального риска явно абсурдна и сильно преувеличена.

В целом, оставаясь со спокойной и аргументированной позицией, мы должны помнить, что двойные проверки AI Legal служат для надлежащего отражения закона, а не намеренно и не случайно идут дальше, чтобы каким-то образом по умолчанию войти в уважаемую сферу принятия решений. закон. Оставляя в стороне экстраполяции чувств, мы, безусловно, можем согласиться с тем, что существует реальная и неотложная обеспокоенность тем, что двойная проверка AI Legal может в конечном итоге исказить истинную природу данного закона.

В свою очередь, вы могли бы заявить, что, таким образом, этот конкретный «искаженный» закон, по существу, создается заново, поскольку он уже не точно означает то, что имелось в виду в действующем законе. Я надеюсь, что вы, честно говоря, понимаете, насколько это тонкое, но убедительное соображение. В любой момент времени юридический контролер ИИ может на виртуальной основе создавать или, скажем так, «галлюцинировать» новые законы просто на основании того, как компонент ИИ интерпретирует закон в том виде, в каком он изначально сформулирован или воплощен в ИИ (для моего освещения так называемого ИИ галлюцинацийСм. ссылка здесь).

Осторожность в этом должна быть резко осуществлена.

По этой теме вышеупомянутое исследование предлагает параллельную мысль с точки зрения стремления предотвратить пересечение этой священной линии: «Мы не стремимся к тому, чтобы ИИ имел легитимность для принятия законов, создания юридического прецедента или обеспечения соблюдения закона. На самом деле это подорвало бы наш подход (и мы должны приложить значительные усилия, чтобы предотвратить это). Скорее, самая амбициозная цель Законодательного кодекса состоит в том, чтобы с помощью вычислений закодировать и внедрить обобщаемость существующих правовых концепций и стандартов в проверенные характеристики ИИ» (там же).

  • Тонкий баланс между ИИ. Юридическое воплощение закона в виде правил и стандартов.

Законы грязные.

Почти для любого закона в книгах, вероятно, существует множество интерпретаций того, что закон предусматривает на практике. Говоря языком области ИИ, мы называем законы семантически неоднозначными. Вот что делает разработку ИИ применительно к закону такой захватывающей и одновременно неприятной задачей. В отличие от точного перемалывания чисел, которое вы можете наблюдать, скажем, в финансовых приложениях ИИ, желание воплотить наши законы в ИИ влечет за собой работу с цунами семантических неясностей.

В книге моего фонда, посвященной основам правового мышления ИИ (AILR), я обсуждаю, как предыдущие попытки просто кодифицировать законы в набор ограниченных правил не привели нас к тому, чего мы хотели бы достичь в области права (см. ссылка здесь). Сегодняшний AILR должен охватывать интеграцию между использованием правил и тем, что можно было бы назвать всеобъемлющими стандартами, которые представляет закон.

Этот важный баланс можно выразить следующим образом: «На практике большинство правовых положений находятся где-то в диапазоне между чистым правилом и чистым стандартом, и теория права может помочь определить правильное сочетание «правильности» и «стандартности». при определении целей систем ИИ» (там же).

  • Требование доказательств пудинга, когда дело доходит до соблюдения закона ИИ

Желание чего-то отличается от обладания чем-то.

Эта капля мудрости возникает, когда мы говорим, что, хотя мы могли бы захотеть иметь двойные проверки AI Legal, нам крайне необходимо убедиться, что они работают и работают правильно. Обратите внимание, что это представляет собой еще одно жесткое и изнурительное препятствие. Ранее я рассказывал о последних достижениях и проблемах в области проверки и проверки ИИ, см. ссылка здесь.

Как отмечается в исследовательском документе: «Чтобы восполнить пробел, прежде чем модели ИИ будут развернуты во все более агентных возможностях, например, в полностью автономных транспортных средствах на основных дорогах, развертывающая сторона должна продемонстрировать понимание системой человеческих целей, политик и правовых стандартов. Процедура проверки может проиллюстрировать «понимание» ИИ «значения» юридических понятий» (там же).

Заключение

Я призываю вас подумать о том, чтобы присоединиться ко мне в этом благородном стремлении создать и внедрить систему двойной проверки AI Legal. Нам нужно больше внимания и ресурсов, посвященных этому добродетельному делу.

Это также налагает двойную ответственность, как упоминалось ранее, на достижение AI Legal Reasoning (AILR), которое может использоваться для помощи адвокатам и потенциально может использоваться непосредственно широкой общественностью. Действительно, некоторые яростно утверждают, что единственным жизнеспособным средством достижения более полного ощущения доступа к правосудию (A2J) будет создание ИИ, воплощающего в себе юридические возможности и доступного для всех.

Один быстрый заключительный момент на данный момент.

До сих пор в обсуждениях подчеркивалось, что двойная проверка AI Legal будет встроена или имплантирована в AI. Это действительно основное внимание тех, кто исследует и предпринимает эту новую область.

Вот вопрос, над которым стоит подумать.

Наденьте свою мыслящую кепку.

Почему бы не использовать двойную проверку AI Legal во всем программном обеспечении?

Суть в том, что вместо того, чтобы использовать только двойную проверку AI Legal в AI, возможно, нам следует расширить нашу точку зрения. Все виды программного обеспечения могут сбиваться с легального пути. По общему признанию, ИИ привлек львиную долю внимания из-за того, как ИИ обычно используется, например, для принятия мучительных решений, которые влияют на людей в их повседневной жизни. Однако вы могли бы с готовностью утверждать, что существует множество систем, не связанных с ИИ, которые делают то же самое.

По сути, мы не должны позволять никакому программному обеспечению пользоваться бесплатно, чтобы обойти закон или предотвратить его.

Напомним, ранее я упоминал две категории сочетания ИИ и закона. Здесь мы сосредоточились на использовании ИИ применительно к закону. На другой стороне медали — применение закона к ИИ. Предположим, мы принимаем законы, которые требуют использования двойных проверок AI Legal.

Сначала это может быть ограничено системами ИИ, особенно теми, которые оцениваются как особо опасные. Постепенно то же самое требование двойной проверки AI Legal может быть распространено и на программное обеспечение, не связанное с AI. Опять же, никаких бесплатных поездок.

Пока вы болтаете по этому соображению, я добавлю остроты в качестве заключительного тизера. Если мы собираемся требовать двойной проверки AI Legal, мы могли бы также сделать то же самое с двойной проверкой AI Ethics. Использование двойной проверки AI Legal — это только половина дела, и мы также не можем игнорировать или забывать об этических проблемах AI.

Я закончу этот бойкий дискурс одной из моих любимых цитат. Согласно мудрым словам Эрла Уоррена, известного юриста, занимавшего пост главного судьи Соединенных Штатов: «В цивилизованной жизни закон плавает в море этики».

Возможно, было бы лучше активно использовать эти многообещающие и бурлящие двойные проверки ИИ в области права и этики ИИ, если мы хотим держать голову над потенциально надвигающимися бурными морями из кислого ИИ и суровых систем, не связанных с ИИ, которые угрожают нашей безопасности. .

Они могут быть спасательным жилетом человечества.

Источник: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- и-ай-право/