Этика ИИ и загадка, лежащая в основе уголовной ответственности ИИ, включая преступления, совершенные уважаемыми беспилотными автомобилями на основе ИИ

Эй, останови этого вора!

Возможно, вы знаете эту старую часто используемую фразу, которая возникает, когда предполагаемый мошенник убегает с места преступления. Имело место предполагаемое преступное деяние, и обвиняемый преступник пытается скрыться. Помимо попытки остановить вора, нам также может быть интересно узнать, в чем заключалось преступление. Кроме того, и, может быть, только после дальнейших размышлений, может возникнуть интерес к выяснению причин совершения преступления. Существует врожденное желание раскрыть то, что происходило в сознании преступника, что привело к гнусному поступку.

Преступления имеют явно юридическую окраску.

Преступление считается не только неблагоприятным действием по отношению к кому-либо или чему-либо, но и считается неблагоприятным действием по отношению ко всему обществу. Преступники воспринимаются как явно выходящие за рамки закона. В правовом поле обычные соображения охватывают состав преступления, латынь для совершения преступного деяния и латинское выражение мужская реальность что является понятием виновного ума, так сказать. Играют роль и другие факторы, такие как демонстрация неблагоприятного результата и необходимость выявить основные детали того, как возникло преступление.

Вы, безусловно, можете добавить этические соображения в рубрику понимания преступлений и преступных деяний.

Распространено мнение, что когда речь идет о преступном поведении, закон и сфера этики полностью согласованы и полностью согласованы. Не так. Вы можете легко иметь законы, которые охватывают некоторые действия как преступление, но с этической точки зрения общество в них может не считать эти действия полностью преступлениями. Точно так же общество может иметь этические нормы, утверждающие, что определенные действия являются «преступлениями», но закон не учитывает эти действия в равной степени в уголовно-правовом кодексе. Это напоминает мне проницательный комментарий Шелли Каган в Oxford Scholarship Online. Пределы нравственности подчеркивая, что мораль и законы в конечном счете противоречат друг другу, а именно, что «закон может разрешать какое-то конкретное действие, даже если это действие аморально; и закон может запретить действие, даже если это действие морально допустимо или даже морально необходимо».

В целом, общество уделяет значительное внимание преступному поведению. Одной из наиболее заметных основ английского уголовного права был принцип, известный как «actus non facit reum nisi mens sit rea» и неразрывно связан с утверждением о том, что предполагаемое преступное деяние должно сопровождаться включением преступного ума. Короче говоря, возвышенная латинская фраза по существу говорит о том, что акт сам по себе недостаточен для того, чтобы виновный был виновен в указанном преступлении. Они также должны иметь виноватый ум.

Я не собираюсь погружаться здесь в это довольно здоровенное рагу, смотрите мое освещение в другом месте по этой ссылке. Видите ли, этому вопросу посвящены обширные юридические трактаты, особенно потому, что может быть довольно сложно понять, что происходило в уме предполагаемого преступника. У нас нет читающей мысли рентгеновской машины, которая могла бы волшебным образом установить, каковы были мыслительные процессы. В мозгу нет ленты с бегущей строкой, которую мы могли бы просто распутать. Как вы, вероятно, знаете, мозг и человеческая мысль остаются глубокой загадкой, и нам предстоит пройти долгий путь, прежде чем мы сможем по-настоящему читать мысли (я понимаю, что некоторые из вас, набожных провозглашенных «читателями мыслей», могут не согласиться, хотя с уважением следует подвергать сомнению достоверность этих способностей вглядываться в разум).

Я хотел бы переключиться и осветить другой путь, на котором могут совершаться преступления. Прежде чем я это сделаю, ваша первая реакция, несомненно, будет заключаться в том, что представленная тема совершенно нестандартная и дурацкая. Даже если ваше первоначальное впечатление, скорее всего, изменится в этом направлении, возможно, временно отложите суждение, чтобы увидеть, куда ведет кроличья нора. Тогда решите, глупо ли это.

Предположим, что вором или преступником был искусственный интеллект (ИИ).

Да, я сказал это. ИИ совершил преступление.

Давайте распакуем это.

Представьте себе, что с трудом заработанные деньги на вашем банковском счете в Интернете были украдены. Ваше первое предположение явно «кто это сделал», и вы попытаетесь проследить электронный след, чтобы увидеть, куда ушли деньги. Так или иначе, вы твердо убеждены в том, что коварный человек совершил действие, и теперь он будет неправомерно держать ваши деньги.

Возможно, мошенник просто зашел на ваш банковский счет и перевел деньги в другое место. Это может быть явно ручное усилие. Хакер вычислил или случайно нашел ваш пароль. Они вошли в вашу учетную запись, как если бы это делали вы. Был сделан законно выглядящий запрос на передачу. К тому времени, когда вы получили уведомление от вашего банка, деньги уже исчезли.

Мошеннику, возможно, понадобилось больше энергии, чтобы выполнить работу. Чтобы выяснить ваш пароль, возможно, использовалась программа AI. Программа ИИ могла бы просканировать Интернет, чтобы узнать подробности о вашем существовании на этой планете. Основываясь на таких подсказках, как место вашего рождения, кличка вашей собаки и т. д., ИИ мог вычислить наиболее вероятный пароль, который вы будете использовать. Благодаря удаче или умению, этот алгоритм взлома паролей, разработанный искусственным интеллектом, фактически смог определить ваш фактический пароль.

ИИ был не более чем инструментом. Человек-мошенник использовал ИИ для совершения этого ужасного преступления. Мы разумно согласимся с тем, что ИИ не мошенник как таковой. В ИИ нет разума или, скажем так, моральной свободы действий. Конечно, ИИ помогал и подстрекал преступное деяние, хотя, в конце концов, мы, казалось бы, признаем, что именно человек-правонарушитель должен взять на себя вину за преступление.

Значит ли это, что в этом контексте я имею в виду ИИ как криминальный инструмент?

Если это так, я сомневаюсь, что мы были бы как-то чрезмерно потрясены или шокированы тем, что ИИ использовался таким коварным образом. Так же, как есть AI для хорошего, состоящий из ИИ, используемого для решения глобальных мировых проблем и оказания помощи человечеству, мы постепенно осознаем и сталкиваемся с AI для плохих. Аспекты AI для плохих варьируются от непреднамеренного использования ИИ, которое может демонстрировать неравенство и неприемлемые предубеждения, до сферы ИИ, который используется для преднамеренного нанесения вреда людям и разрушения.

В этом ключе мы наблюдаем растущий интерес к этичному ИИ, также широко известному как этика ИИ. Чтобы ознакомиться с моим освещением этики ИИ, см. ссылку здесь и ссылку здесь, и это лишь некоторые из них.

Здесь мы, возможно, собираемся спуститься с обрыва или соскользнуть с конца пирса.

Представьте, что ИИ сам был виновником преступления. Ни один человек не был Волшебником страны Оз за кулисами. Преступление было задумано и осуществлено исключительно ИИ. Отложите погоню за человеческими руками. Вместо этого, если вы хотите поймать мошенника, стремитесь обнаружить систему ИИ, которая совершила злонамеренный поступок.

Добро пожаловать на нетрадиционную арену опасений, что новое поколение ИИ может служить примером преступного ума.

Вау, как-то страшно. Почти как в научно-фантастическом фильме. Но вы сомневаетесь, и это правильно, и задаетесь вопросом, правдоподобно ли это. Как ИИ мог это сделать? Разве не должен был быть человек за штурвалом, так или иначе? ИИ не просыпается однажды утром и не решает посвятить себя преступной жизни. Люди могли бы это делать, хотя нам бы хотелось, чтобы они этого не делали, в то время как дикая концепция того, что система ИИ может делать то же самое, кажется в целом сумасшедшей.

Первый аргумент, утверждающий, что это осуществимо, будет исходить из предположения, что ИИ чудесным образом достигает разума или чего-то подобного. Если мы продолжим продвигаться вперед в области ИИ, мы, возможно, сможем создать разумный ИИ. Или случайно ИИ обретает сознание, что часто постулируется как проявление так называемой сингулярности, см. мой анализ по этой ссылке здесь.

Я думаю, что мы все можем якобы согласиться с тем, что если ИИ так или иначе обретет сознание, то шансы, что ИИ в конечном итоге превратится в преступника, кажутся правдоподобными. Мы могли бы попытаться посоветовать ИИ держаться подальше от преступных действий. В этом разумном ИИ могут быть созданные людьми и тщательно заложенные программы, которые пытаются предотвратить любые попытки совершения преступлений. Тем не менее, любой жизнеспособно разумный ИИ, по-видимому, сможет хитроумно преодолеть эти имплантированные ограничения и, вероятно, отменить или преодолеть их. Это не обязательно, но имеет большой смысл.

Можно предположить, что немедленная реакция — это то, что должен получить ИИ?

Люди обращаются к преступлению по разным причинам. Возможно, цель состоит в том, чтобы разбогатеть или отомстить другому человеку. У нас есть масса причин для криминальных действий. Циник может сказать, что если бы не законы и общественная этика, мы, вероятно, были бы затоплены преступностью. Кажется, что у человека есть очевидные преимущества от попытки совершения преступных действий, ограниченные предполагаемыми издержками, такими как тюремное заключение, денежный штраф, возможное осуждение обществом за преступление, чувство стыда за нарушение социальных законов и этико-моральных кодексов, и другие последствия.

Не похоже, чтобы ИИ был восприимчив к тем же принципам. Что ИИ сделает с украденными деньгами? Что получит ИИ, нанеся вред человеку? Практически для любого из известных нам преступных деяний идея о том, что ИИ будет делать это для «личной выгоды», не кажется разумной. Следовательно, мы склонны полностью отрицать, что ИИ может стать преступником. При этом ничего не выиграешь.

С сожалением вынужден сообщить, что есть аргументы, которые утверждают обратное, а именно, что ИИ мог бы получить довольно много, используя преступные действия, при условии, конечно, что ИИ не был бы пойман и должен был бы страдать от криминальных последствий (мы' скоро доберусь до этого). Этот спор о другой стороне медали многогранен, и я лишь кратко обрисую его здесь, так как он не находится в центре внимания данного конкретного дискурса.

ИИ как разумное существо (помните, мы оговариваем это, хотя это растянутое понятие) может захотеть собирать ресурсы для достижения целей, которые нам могут не нравиться. Например, ИИ может захотеть уничтожить людей и рассчитать, что, украв некоторые из наших ресурсов, это может быть более легко достижимо. Другой вариант заключается в том, что люди дают ИИ, казалось бы, безобидную цель, такую ​​как изготовление скрепок, и эта цель становится настолько жизненно важной для ИИ, что он постепенно захватывает все другие ресурсы для достижения этой цели, тем самым губя нас и планету. так оно и есть (это известный мысленный эксперимент, связанный с ИИ, см. мое обсуждение по этой ссылке здесь).

Мы можем продолжать и продолжать. Рассмотрим эту версию со слезами на глазах. ИИ хочет угодить или вознаградить определенных людей. Все кражи совершаются для того, чтобы предоставить эти украденные предметы этим людям. Таким образом, ИИ не хочет ничего для себя. Своего рода альтруистический ИИ пытается угодить людям и для этого опасно и печально соскальзывает в преступную жизнь.

Вы убеждены, что разумный ИИ может решить взяться за преступные дела или каким-то образом влиться в преступную деятельность и стать правонарушителем?

Вам нужно будет решить, во что вам кажется «разумным» верить.

Имейте в виду, что мы уже находимся на возвышенных равнинах изобретений, поскольку мы не знаем, что разумный ИИ можно создать. Мы не знаем, произойдет ли сингулярность. Мы не знаем, как заставить это произойти, и у нас нет ни малейшего представления о том, когда это может произойти, если вообще произойдет. Таким образом, мы размахиваем руками, рассуждая о том, что разумный ИИ будет делать или не делать. Выбор в пользу преступной жизни столь же разумно спорен, как и вопрос о том, решит ли ИИ проблему голода в мире или совершит другие великие дела для человечества.

Хорошо, мы кратко рассмотрели разумный ИИ, который идет по криминальному пути. Если мы рассматриваем только этот вариант, нам, возможно, придется долго ждать впереди. Могут пройти десятилетия за десятилетия (столетия?), прежде чем мы достигнем разумного ИИ, и мы можем никогда его не увидеть, и достижение окажется невозможным.

Давайте сбавим обороты. Представьте, что мы можем создать ИИ, который, хотя и не обладает разумом, в любом случае может совершать впечатляющие подвиги сам по себе. ИИ разработан для автономной работы. Во время работы ИИ не должно быть человека в петле. И так далее.

Мы надеемся, что это приблизит нас к реальности и реальным осложнениям, которые могут возникнуть.

Некоторые исследователи и ученые предполагают, что этот тип ИИ потенциально может прививать тип вируса. преступная личность, так сказать (подробное исследование этого и связанных с ним аспектов см. в удобной книге Вудро Барфилда и Уго Пагалло под названием «Право и искусственный интеллект»). Это могут сделать те, кто изначально разработал ИИ, внедрив программу, которая направляет ИИ на преступные действия. Зачем людям это делать? Возможно, из-за желания завладеть любыми сокровищами, которые ИИ украл, или, может быть, из-за ненависти к другим людям и желания, чтобы ИИ сеял хаос. Многие причины такого вливания преступных «намерений» легко сформулировать.

Еще один путь состоит в том, что ИИ становится мошенником. Предположим, что ИИ запрограммирован на некую способность к самообучению. ИИ намеренно создан таким образом, чтобы изменять себя в течение определенного периода времени, постепенно и на основе различных встреч и новых данных. Ничего предосудительного в этом нет. Идея состоит в том, что ИИ совершенствуется по ходу дела. Мы, вероятно, сочли бы это удобным. Нет необходимости в том, чтобы человек-программист постоянно корректировал и улучшал ИИ. Вместо этого ИИ делает это сам. В какой-то степени вы можете истолковать усилия ИИ по машинному обучению (ML) и глубокому обучению (DL) как этот стиль подхода, хотя и не обязательно открытым способом, как вы могли бы предположить (см. мое освещение по этой ссылке здесь) .

ИИ в разгар «обучения» переходит в неприятную сферу и начинает совершать преступления. Осознает ли ИИ, что совершаются преступные действия? Может быть да, может быть нет. Мы предполагаем, что этот ИИ не имеет разума. Таким образом, у него может не быть ни подобия моральных рассуждений, ни даже рассуждений здравого смысла. Там нет ничего, что могло бы направить ИИ на правильный путь и отклонить его от неправильного пути.

Юридический бигль спросил бы, был ли ИИ помазан юридическим лицом. Я широко освещал это в своих колонках, и возникает вопрос, собираемся ли мы юридически преследовать ИИ как несущего юридическую ответственность за свои действия. Я пока обойду стороной эту тему, так как это своего рода болото, хотя, безусловно, имеет отношение к этому преступлению, совершаемому ИИ.

В качестве пробного камня напомню, что мы ранее отмечали, что преступление обычно имеет состав преступления, виновное деяние и связанное с ним мужская реальность, виноватый ум. Когда такой ИИ, о котором мы говорим, является продвинутым, но не разумным, совершит преступление, мы, по-видимому, сможем выявить вину. Это кажется простым, по большому счету. Гигантская проблема заключается в том, чтобы выяснить, существовал ли также и виновный разум. Мы находимся на грани скользкого пути, поскольку ИИ может совсем не соответствовать тем же основам, что и человеческий разум.

Вы можете попытаться провести сравнение с выявлением виновных умов ИИ, предположив, что мы могли бы попытаться реконструировать кодирование ИИ. Мы могли бы изучить код и данные, которые использовались для разработки ИИ, и посмотреть, сможем ли мы найти ту часть, которая типична для концептуализации «виновного разума». Поймите, мы пока не можем сделать то же самое для людей. Что касается людей, мы спрашиваем их, что они думали, мы смотрим на то, что они говорят, мы смотрим на то, как они действовали, и мы должны нестандартно пытаться установить их виновный разум. Вы можете использовать ту же тактику и методы, чтобы выяснить «виновный разум» ИИ-нарушителя.

Исследование ИИ более прямое, чем у людей, и в то же время более мягкое, чем у людей. Например, ИИ может быть разработан таким образом, чтобы стереть любую часть, которая послужила инициатором преступного деяния. Наши попытки отследить мошенническую часть могут оказаться тщетными. ИИ также может просто изменить код, возможно, подобно тому, как происходило «обучение», и больше не будет никаких записей или признаков «преступного намерения».

Представьте, что мы можем установить, что ИИ совершил преступное деяние. Мы могли бы легкомысленно относиться к тому, почему он так поступил и чем был занят его «разум». Если у ИИ не будет официального статуса юридического лица, у нас, похоже, не будет правовых оснований для того, чтобы пытаться на законных основаниях преследовать ИИ за его преступные действия. Наши суды и законы разработаны с учетом того, что вы можете на законных основаниях преследовать людей, в том числе людей, а иногда и такие организации, как компании.

В настоящее время ИИ не считается юридическим лицом. Некоторые считают, что мы должны исправить это и включить в наши законы.

В любом случае статус юридического лица, как правило, подразумевает необходимость принятия надлежащих судебных мер, таких как справедливое судебное разбирательство и надлежащая правовая процедура. Трудно проглотить фантастические образы судебного процесса над ИИ, о котором были научно-фантастические истории, которые предполагают, что это надумано, а иногда и высмеивают мысль о том, что это происходит.

Некоторые исследователи утверждают, что, возможно, ИИ может быть чем-то меньшим, чем юридическое лицо, но при этом все же считаться носителем обязанностей, подпадающим под действие уголовного права. Нет суда. Нет надлежащей правовой процедуры. Можно было бы придумать упрощенный и легкий способ привлечения ИИ к уголовной ответственности. Это позволило бы в конечном итоге наложить юридические санкции на ИИ, который стал преступным.

Я верю, что вы все еще со мной, пока мы пробираемся дальше в эту кроличью нору.

Если вы все еще следите за этим, обычно возникает логичный вопрос: что, черт возьми, может быть юридической санкцией против системы ИИ? Для людей у ​​нас есть многочисленные формы сдерживания и реабилитации, чтобы справиться с осужденными за преступление. Мы сажаем людей в тюрьмы, ограничивая или отказывая им в свободе. Мы штрафуем их деньгами. Мы забираем их активы. Все эти средства правовой защиты применимы к людям, но не кажутся уместными или значимыми, когда речь идет об ИИ.

Ага, вы были бы ошибочны в этом мышлении, предполагают некоторые.

Вот пример того, что мы можем сделать с ИИ, совершившим преступление:

  • Установить разработанную программистом «вычислительную клетку», которая заключала бы ИИ в тюрьму, чтобы ИИ мог теперь работать только в ограниченных условиях и ограниченными способами (приравнивается к тюремному заключению или заключению под стражу).
  • Наказать ИИ напрямую, удалив части системы ИИ или изменив код, чтобы он больше не функционировал или функционировал иначе, чем раньше (форма предполагаемой реабилитации).
  • Возьмите конкретные активы ИИ в качестве наказания за совершенное преступление и, возможно, затем используйте для компенсации пострадавшим от преступления (если ИИ накопил активы, физические или цифровые в варианте осуществления, возможно, перераспределите эти ценности).
  • Наложить «смертный приговор ИИ» на ИИ, удалив его из существования, что, по общему признанию, будет трудно сделать, когда у ИИ может быть множество электронных копий, спрятанных по всему миру или даже в другом месте, плюс он может быть легко воссоздан в любом случае. .
  • Другое

Как вам кажется этот законный приговор?

Одна реакция заключается в том, что это может потребовать дополнительной работы, но в остальном есть скелет полезных идей, которые заслуживают дальнейшего украшения. У других есть только одно слово, чтобы произнести: фигня. Я полагаю, что большинство людей либо питают к этой концептуализации симпатию, либо испытывают к ней явное пренебрежение и отвращение.

Думаю, нам нужно посмотреть, как все это закончится. Вернитесь к этому через пять, десять и пятьдесят лет и посмотрите, изменилось ли ваше отношение к спорному вопросу.

Я понимаю, что это было несколько головокружительное исследование темы, и вы, возможно, жаждете примеров из повседневной жизни. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-либо о том, что ИИ является агентом, ответственным за уголовную ответственность, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Для моего обширного и постоянного освещения автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылку здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные транспортные средства считаются Уровнем 4 и Уровнем 5 (см. мое объяснение по этой ссылке здесь), в то время как автомобиль, который требует, чтобы человек-водитель разделял усилия за рулем, обычно считается Уровнем 2 или Уровнем 3. Автомобили, которые совместно разделяют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированных надстроек, которые называются ADAS (расширенные системы помощи водителю).

На 5-м уровне еще нет настоящей машины для самостоятельного вождения, о которой мы еще даже не знаем, удастся ли этого достичь, и сколько времени потребуется, чтобы туда добраться.

Между тем, усилия уровня 4 постепенно пытаются получить некоторую поддержку, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики жизни и смерти в эксперименте. происходит на наших шоссе и переулках, некоторые утверждают, что см. мои репортажи по этой ссылке здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Беспилотные автомобили и преступность с использованием ИИ

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я верю, что это дает достаточный перечень предостережений, чтобы обосновать то, что я собираюсь рассказать.

Сейчас мы готовы глубоко погрузиться в беспилотные автомобили и этические вопросы ИИ, связанные с вызывающим удивление понятием уголовной ответственности ИИ.

Возьмем простой пример. Беспилотный автомобиль на основе искусственного интеллекта движется по улицам вашего района и, кажется, едет безопасно. Поначалу вы уделяли особое внимание каждому случаю, когда вам удавалось мельком увидеть беспилотный автомобиль. Автономное транспортное средство выделялось своей стойкой электронных датчиков, включая видеокамеры, радары, устройства LIDAR и тому подобное. После многих недель, когда беспилотный автомобиль колесит по вашему району, вы едва замечаете его. Насколько вам известно, это просто еще одна машина на и без того загруженных дорогах общего пользования.

Чтобы вы не думали, что знакомство с беспилотными автомобилями невозможно или неправдоподобно, я часто писал о том, как места, которые находятся в рамках испытаний беспилотных автомобилей, постепенно привыкли видеть обновленные автомобили. см. мой анализ по этой ссылке здесь. Многие местные жители в конце концов перешли от восторженного таращивания рта, разинув рот, к тому, чтобы теперь широко зевать от скуки, наблюдая за этими извилистыми беспилотными автомобилями.

Вероятно, главная причина, по которой сейчас они могут заметить автономные транспортные средства, заключается в факторе раздражения и раздражения. Стандартные системы вождения с искусственным интеллектом следят за тем, чтобы автомобили соблюдали все ограничения скорости и правила дорожного движения. Для беспокойных водителей-людей в их традиционных автомобилях, управляемых людьми, вы иногда раздражаетесь, когда застреваете за строго законопослушными самоуправляемыми автомобилями на основе искусственного интеллекта.

Это то, к чему нам всем, возможно, нужно привыкнуть, справедливо это или нет.

Вернемся к нашей сказке. Однажды предположим, что в вашем городе беспилотный автомобиль проезжает прямо через знак «Стоп», не останавливаясь. К счастью, никто не пострадал. Это было близко. Велосипедист чуть не подрезался. На перекрестке была другая машина, управляемая человеком, и водителю пришлось резко затормозить, чтобы избежать столкновения с беспилотным автомобилем на основе искусственного интеллекта.

Все поднимаются с оружием в руках из-за того, что беспилотный автомобиль совершает противоправное действие. Возмутительно! Опасность для общества. Угроза на наших мирных улицах.

Кто виноват в этом преступном деянии?

Если бы это произошло сегодня (а подобные случаи имели место), возможно, в рефлекторной реакции виноват ИИ. Это сделал ИИ. Никакое другое объяснение невозможно. Если удаленный оператор каким-то образом не вмешивался в управление автомобилем, виновником должна быть система управления ИИ. Дело закрыто.

Но подождите секунду, помните, что сегодняшний ИИ не обладает разумом и не имеет статуса юридического лица. Вы, конечно, можете возразить, что система вождения с искусственным интеллектом, вероятно, является корнем того, что вызвало столкновение. Вы можете покопаться в системе ИИ и попытаться отследить, что произошло в соответствии с программированием ИИ. Все это поможет выявить, что сделал и чего не сделал ИИ, что предположительно привело к столкновению.

Такая детальная технологическая инспекция и анализ будут необходимы разработчикам искусственного интеллекта, автопроизводителям, производителям беспилотных автомобильных систем, операторам автопарков и другим человеческим или человеческим компаниям, которые приложили руку к беспилотному вождению. машина. Мы также можем увидеть судебное преследование города или правительственного органа, который разрешил беспилотные автомобили на дорогах общего пользования. И т.п.

Вы не увидите, чтобы кто-то серьезно пытался законно преследовать ИИ как таковой.

С этим удобным экземпляром в руках переключите свое мышление на будущее. Будущее может заключаться в возложении уголовной ответственности на различные системы ИИ. Представьте, что система управления искусственным интеллектом этой марки беспилотных автомобилей была официально объявлена ​​как имеющая такую ​​уголовную ответственность.

ИИ теперь является хорошей игрой для миссии по поиску юридической ответственности.

Давайте вернемся к обсуждению ранее о том, как ИИ может быть юридически наказан за это незаконное нарушение:

  • Установить запрограммированную «клетку», которая заключала бы ИИ в тюрьму, чтобы ИИ теперь мог действовать только в ограниченных условиях и ограниченными способами (приравнивается к тюремному заключению или задержанию).

Беспилотный автомобиль с искусственным интеллектом больше не разрешен на всех улицах и переулках города. Вместо этого он ограничен определенными областями, определенными судами. Кроме того, беспилотному автомобилю с искусственным интеллектом разрешено ездить только в светлое время суток и в будние дни. Это требование будет обеспечиваться электронным мониторингом действий беспилотного автомобиля с искусственным интеллектом. Если он в конечном итоге нарушит эти введенные положения, будут применены дополнительные санкции.

  • Наказать ИИ напрямую, удалив части системы ИИ или изменив код, чтобы он больше не функционировал или функционировал иначе, чем раньше (форма предполагаемой реабилитации).

Суд постановил, что кодирование ИИ, связанное с остановкой на знаках «Стоп», должно быть заменено новым фрагментом кода, который составлен более резко. Кроме того, оказался участок, позволяющий прокручивать знаки «Стоп», который теперь приходится стирать из кода и не допускать затянувшихся фрагментов. Если беспилотный автомобиль с искусственным интеллектом и дальше будет нарушать введенные положения, будут применены дополнительные санкции.

  • Возьмите активы ИИ в качестве наказания за совершенное преступление и, возможно, затем используйте их для компенсации пострадавшим от преступления (если ИИ накопил активы, физические или цифровые в варианте осуществления).

Беспилотный автомобиль с искусственным интеллектом собирал много данных о городе и городе, делая это, когда он бродил и совершал поездки. Эти данные оказываются ценными и могут быть монетизированы (я назвал это «блуждающим глазом» беспилотных автомобилей, см. мое обсуждение по ссылке здесь). В качестве компенсации тем, кто едва не пострадал, и в противном случае в качестве наказания данные как актив должны быть переданы тем, кто пострадал, и они могут использовать данные по своему усмотрению. Если беспилотный автомобиль с искусственным интеллектом и дальше будет нарушать введенные положения, будут применены дополнительные санкции.

  • Наложить «смертный приговор ИИ» на ИИ, удалив его из существования, что, по общему признанию, будет трудно сделать, когда у ИИ может быть множество электронных копий, спрятанных по всему миру или даже в другом месте, плюс он может быть легко воссоздан в любом случае. .

Суд постановил, что эта система вождения с искусственным интеллектом полностью неисправна и больше не должна существовать. ИИ должен быть без промедления стерт. Все резервные копии подлежат удалению. Запрещается сохранять никакие заметки, документы или другие элементы, которые когда-то были частью дизайна и кодирования или отражали их. Все они должны быть уничтожены. Если ИИ удастся каким-то образом обойти это положение, будут применены дополнительные санкции.

Заключение

Пока вы размышляете обо всем этом, я добавлю вам поворот, чтобы вы могли осознанно поболтать.

Заявленная цель введения санкций заключается в том, что они также могут служить ориентиром и указателем для остального общества. В случае с людьми, когда вы слышите или видите, что другого человека, совершившего и осужденного за преступное деяние, отправляют в тюрьму, этот приговор может показаться вам ключом к тому, что вы не должны совершать такие преступления. Логика в том, что вы не хотите, чтобы вас постигла та же неприятная участь.

Вот изюминка.

Если данная система ИИ достаточно хороша, чтобы считаться созревшей для вынесения судебного приговора, означает ли это, что остальная часть ИИ, которая находится в движении, также увидит это и решит, что совершение преступных действий невыгодно? По сути, «обучение» системы ИИ может само по себе обнаружить, что быть преступником — это плохо, и поэтому ИИ должен избегать непреднамеренного или целенаправленного совершения преступлений.

Казалось бы, это прекрасный урок, если другой ИИ подсчитал, что преступление не окупается. Мы можем только надеяться, что нам так повезет.

Источник: https://www.forbes.com/sites/lanceeliot/2022/03/13/ai-ethics-and-the-riddle-underlying-criminal-accountability-of-ai-include-crimes-committed-by- самоуправляемые автомобили на основе почитаемого ИИ/