Криптовалюта и ИИ: будущее роли юриста

Одним из них является то, что люди могут найти другую роль и положение, чем те, к которым мы привыкли сегодня.

Таким образом, если бы ради аргументации была создана машина, которая могла бы дать неизбежный точный ответ на юридический вопрос и, таким образом, обеспечить практически неизбежный ответ относительно возможного исхода спора, теоретически роль юриста могла бы перейти в область, отличная от поиска ответа на вопрос. Возможно, это знание того, как задать правильный вопрос машине, которая затем даст ответ. Таким образом, он будет обеспокоен тем, чтобы машине были предоставлены все наиболее подходящие элементы и параметры для генерации ожидаемого ответа.

Или он может перейти к этой области «обучения» юридической машины, а затем предоставить или проследить за тем, чтобы все юридические данные и информация, необходимые для проведения оценок, были предоставлены машине.

А поскольку эта машина, следуя этой гипотезе, сможет с неизбежной точностью вынести вердикт, который мы считаем «справедливым», роль судьи, возможно, могла бы заключаться в том, чтобы убедиться, что стороны не обманывают, вынося вердикт. машина имеет необходимые элементы для вынесения вердикта и что критерии вынесения решения, введенные и применяемые машиной, соответствуют справедливости, разумности, соразмерности, недискриминации и т. д.

Все это, кстати, похоже, соответствует знаменитым пяти принципам, установленным ЕКЭП – Европейская комиссия по эффективности правосудия (т.е. Комиссия Совета Европы по эффективности правосудия, орган Совета Европы, представляющий 47 стран, целью которого является проверка и мониторинг эффективности и функционирования европейских систем правосудия) в «Этике» Хартия об использовании искусственного интеллекта в системах правосудия: (i) Принцип уважения основных прав; (ii) Принцип недискриминации (iii) Принцип качества и безопасности; (iv) Принцип прозрачности, беспристрастности и справедливости (v) Принцип контроля пользователей.

Теперь, даже если принять идею о том, что в будущем, когда ИИ найдет массовое применение в правовом поле, роль людей может перейти только в область надзора, есть и другие соображения, которые следует принять во внимание. Главным образом потому, что когда мы представляем себе систему правосудия, управляемую с помощью этих, казалось бы, нейтральных и безошибочных инструментов, мы представляем себе аппарат, который просто обеспечивает соблюдение законов и правил. Просто исполнитель заповедей.

Однако такое представление правосудия не существует в практической реальности, поскольку, вопреки любому принципиальному ходатайству и принципу разделения властей, те, кто выносит приговор, часто в действительности в некоторой степени способствуют созданию закона и изменить его структуру. То есть судебная функция часто совпадает именно в создании и закреплении правил.

Конечно, эта степень варьируется в зависимости от законодательной и конституционной системы. Это, конечно, больше в странах общего права, где право формируется посредством решений, устанавливающих прецедент.

Однако это справедливо и в странах с кодифицированным правом, таких как Италия, Франция, Германия и т. д. Фактически, в этих системах толкование, данное посредством судебного решения, иногда навязывает или даже нарушает формальный закон, дополняет его, когда обнаруживается пробелы и недостатки в нем, игнорирует его и помещает его в пустоту, когда существуют условия, которые ставят его в противоречие с принципами более высокого ранга.

То есть судебная функция, прямо или косвенно, зачастую оказывается вторгающейся в сферу регулятивной функции, причем это может происходить на разных уровнях.

Примечание: это не исключает возможности того, что, абстрактно, машина, призванная создавать правила, не способна делать это даже лучше, чем человек. Хотя бы потому, что история полна плохих человеческих регуляторов. В качестве крайнего примера рассмотрим ужасающий опыт Холокоста и этнических чисток: это были ужасы, которые были юридически поддержаны законодательными системами, основанными на макроскопически бесчеловечных принципах, однако они были созданы и навязаны самими людьми.

Встреча нормативного производства и искусственного интеллекта

Важнейшим моментом является другой: действительно ли мы уверены, что хотим предоставить машинам доступ к процессу нормативного производства? И в какой степени? И надо иметь в виду, что это проникновение может происходить и «ползучим» путем, через тот полуоткрытый дверной проем юрисдикционной функции.

Идея о том, что функции, которые могут выполнять машины, могут оставаться чисто исполнительными или, в лучшем случае, вспомогательными функциями по отношению к работе и воле человека в силу тех этических и формальных ограничений, налагаемых человеком (например, законы робототехники, Азимова или, более того, разработанные в европейском контексте принципы использования ИИ в судебных системах) могут быть успокаивающими.

В данном случае это правила, диктуемые непосредственно Человеком Машине и в широком смысле отвечающие удовлетворению собственного экзистенциального призвания Человека. То есть все они в некотором роде консервативны и функциональны для развития и сохранения существования человечества.

И именно здесь возникает, если хотите, своего рода философская дилемма: если бы мы когда-нибудь позволили нечеловеческой сущности полностью войти в процесс нормативного формирования, учитывая, что она, точно так же, как сущность имманентно наделена своими собственное экзистенциальное призвание, что мешает ему писать правила, не отвечающие экзистенциальному призванию человека?

Возьмем крайний пример: если бы мы поставили проблему перенаселения и нехватки пищевых и энергетических ресурсов глобально, как люди, подверженные определенным патологическим идеологическим тенденциям, на этическом уровне мы бы отвергли ее как средство решения проблемы. решения, которые постулируют массовое истребление или убийство людей.

Та же самая проблема, увиденная глазами нечеловеческого существа, которое может не признавать идентичные этические принципы, могла бы привести к решению массового истребления, возможно, на основе селективных критериев, направленных на устранение самых слабых субъектов (тех самых, которые требования человеческой этики должны быть сохранены в качестве приоритета) как наиболее разумное решение на строго и холодно-логическом уровне.

Массимо Чириатти, среди ведущих специалистов по искусственный интеллект в Италии, который во многих своих работах разъяснил свои взгляды на пределы искусственного интеллекта и контролирующую роль, которую люди должны железным образом поддерживать при использовании этих технологий, в своей книге «Искусственное бессознательное» утверждает:

«Есть очень важный момент, который следует учитывать: каждое предсказание ИИ — это количественная оценка, а не качественная, тогда как для нас, людей, выбор почти никогда не является простым расчетом. Мы принимаем решения, основываясь на неизмеримых и, следовательно, неисчислимых ценностях. Мы — учителя машин. Мы неявно являемся такими, когда они усваивают данные, которые мы создаем, когда они строят модель и дают нам ответы. 

Мы явно так поступаем, когда даем им инструкции о том, как выполнять работу. По этим причинам мы должны обратить внимание на то, как они учатся, потому что при этом они будут развиваться».

Помимо только что приведенного крайнего примера, хотя противодействие развитию технологии тщетно и иллюзорно, такого рода процессами необходимо управлять с предельной осознанностью.

Сегодня мы обсуждаем влияние искусственного интеллекта на юридические профессии, в отношении которых ситуации и ценности чрезвычайно деликатны и своеобразны, связаны с интеллектуальной утонченностью, креативностью и всеми теми компонентами, которые нам нравится прослеживать до нематериальной сущности человека.

Однако та же проблема неизбежно окажет широкомасштабное влияние на сотни рабочих мест, которые машины за очень короткое время смогут выполнять так же хорошо и лучше, чем люди, при бесконечно меньших затратах.

Должны ли мы чувствовать угрозу со стороны криптовалют и искусственного интеллекта (ИИ)?

Огромные масштабы проблемы должны заставить нас задуматься о последствиях, которые повлияют на реальный мир и на нашу способность читать реальность, поскольку социальный и политический взгляд на мир труда и экономики будет революционизирован.

Если правомерно задавать ряд вопросов относительно мира юридических профессий, необходимо учитывать, что аналогичные вопросы придется задавать и о большей части мира труда.

Для нас наиболее актуальными из них являются: «Что произойдет с людьми, судьями и юристами, которые сегодня выполняют ту роль и функции, которые завтра могут выполнять машины? Как они будут зарабатывать на жизнь?»

Но на уровне коллективных интересов их гораздо больше: «Кто будет платить взносы в систему социального обеспечения и кто обеспечит общество налоговыми поступлениями, генерируемыми доходами всех рабочих, замененных машинами?» И снова: «Что будет со всеми теми фигурами, которые способствуют осуществлению деятельности этих операторов (помощники, сотрудники, практики и т. д.) и что произойдет, когда их вклад и налоговые поступления также будут потеряны?»

Что ж, эти вопросы также возникают для всех других категорий рабочих мест, которые могут затронуть роботизированная и цифровая революция в еще меньшие сроки, чем тот, который, вероятно, затронет работников легальной сферы.

Возникают сценарии, которые могут привести к устареванию известных сегодня социологических, экономических, антропологических и политических взглядов: социализм, либерализм, либертарианство, суверенизм и т. д. утратят свои концептуальные основы.

Многое, если не всё, придётся переосмысливать с нуля.

Но возвращаясь к теме ИИ в правовом поле, мое личное мнение таково, что роль юриста (по призванию интерпретатора не только норм, но и фактов и в какой-то степени человека) не сможет ограничиться миграцией в другой регион производственного цикла юридических услуг.

Моя идея состоит в том, что юристам и практикующим юристам в целом можно было бы отвести более высокую роль: то есть следить за тем, чтобы осведомленность в управлении технологическим развитием всегда была пропорциональна реальным целям благосостояния человечества, направлялась должным образом и при необходимости также сознательно и разумно сдерживаться.

Есть известная китайская поговорка: «Когда дует ветер перемен, одни ставят барьеры, другие строят ветряные мельницы».

Теперь, хотя мне нравится думать, что я могу причислить себя к тем, кто, «когда дует ветер перемен», с энтузиазмом бросается строить ветряные мельницы, я бы не хотел дойти до того момента, когда ветряные мельницы больше не нуждаются в людях для существования, поскольку их существование посвящен потребности в других ветряных мельницах.

А если уж на то пошло, нужны ли человеку такие ветряные мельницы?

Адвокат по определению – это тот, кто призван (ad vocatum) защищать и защищать дело. Вот его цель: ему придется позаботиться о том, чтобы люди твердо соблюдали правила и чтобы машины оставались привязанными к той роли, для которой они были созданы: работать на службе человечества.

И когда понадобится, ему придется встать и бороться, чтобы было так, как есть, и так и останется.

Борьба на благо человечества. Как Мазинга Зета из знаменитого японского мультфильма, для тех, кто его помнит.

Звучит хорошо, но Мазинга Зета не был ли он тоже роботом?

 

Источник: https://en.cryptonomist.ch/2023/03/11/crypto-ai-future-lawyers-role/