Этика ИИ и почти разумный вопрос о том, переживут ли люди ИИ

У меня есть к вам вопрос, который, кажется, вызывает много заламывания рук и жарких дебатов в эти дни.

Готовы ли вы?

Переживут ли люди ИИ?

Обдумай это.

Я собираюсь раскрыть вопрос и внимательно изучить ответы и то, как ответы были разъяснены. Моя основная цель состоит в том, чтобы подчеркнуть, как сам вопрос и окружающий его дискурс неизбежно и неумолимо укоренены в AI Этика.

Для тех, кто с пренебрежением считает, что на этот вопрос по своей сути нет ответа или что это пустая трата времени и сил, я бы вежливо посоветовал, что попытка ответить на вопрос поднимает некоторые жизненно важные соображения этики ИИ. Таким образом, даже если вы хотите сразу же отвергнуть этот вопрос как, возможно, нелепый или нереалистичный, я скажу, что он все же представляет определенную ценность как средство или механизм, который подчеркивает этические предписания ИИ. Мой постоянный и обширный обзор этики ИИ и этического ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

С вышеупомянутой предпосылкой, пожалуйста, позвольте мне еще раз повторить спорный вопрос и позволить нашим мыслям блуждать по значимости вопроса.

Переживут ли люди ИИ?

Если вам не нравится эта конкретная формулировка, вы можете переформулировать вопрос, чтобы спросить, переживет ли ИИ людей. Я не уверен, облегчает ли это ответ на вопрос, но, возможно, это кажется менее запутанным. Я говорю это потому, что идея о том, что ИИ переживет людей, может показаться немного более безобидной. Это было бы так, как если бы я спросил вас, могут ли большие здания и рукотворные памятники пережить человечество.

Конечно, это кажется осуществимым и не особенно угрожающим. Мы делаем эти большие вещи в течение нашей жизни, и, подобно пирамидам, эти могущественные сооружения переживут тех, кто их создал. Конечно, это не совсем то же самое, что продолжать существование после конца человечества, поскольку люди все еще здесь. Тем не менее, кажется вполне логичным и возможным, что структуры, которые мы создаем, могут в целом пережить наше существование.

Однако заметным отличием является то, что различные сооружения, такие как высокие небоскребы и великолепные статуи, не являются живыми. Они инертны. Напротив, когда спрашивают об ИИ, предполагается, что ИИ по существу «живой» в том смысле, что он обладает некоторой формой интеллекта и способен действовать так, как это делают люди. Вот почему вопрос о том, как жить дольше, является более сложным, запутанным и вообще загадкой, над которой стоит поразмыслить.

На протяжении всего моего выступления здесь я буду придерживаться вопроса, сформулированного относительно того, переживут ли люди ИИ. Это просто ради обсуждения и облегчения созерцания. Я не имею в виду неуважение к альтернативному вопросу о том, переживет ли ИИ людей. В целом, этот анализ охватывает обе формулировки, и я, возможно, считаю, что вопрос о том, переживут ли люди ИИ, кажется более привлекательным в этих сложных вопросах.

Ладно, еще раз спрошу:

Похоже, у вас есть два возможных ответа: либо железное да, люди переживут ИИ, либо вы можете быть на другой стороне медали и горячо настаивать на том, что нет, люди не переживут ИИ. Таким образом, этот возвышенный и мучительный вопрос сводится к прямолинейному ответу на вопрос «да» или «нет».

Сделайте свой выбор.

Я понимаю, что льстивый ответ состоит в том, что ни да, ни нет не применимы.

Я слышу тебя.

В то время как на этот вопрос, безусловно, кажется, что на него можно ответить только отчетливо бинарным образом, а именно просто да или нет, я согласен с тем, что можно разумно привести контраргумент, что ответ будет чем-то другим.

Давайте вкратце рассмотрим некоторые причины нежелания просто отвечать «да» или «нет» на этот вопрос.

Во-первых, вы можете отказаться от слова «пережить» в контексте поставленного вопроса.

Эта конкретная формулировка, возможно, подразумевает, что ИИ жив. В вопросе не говорилось «пережить», а вместо этого спрашивалось, переживут ли люди ИИ. Применяется ли срок жизни только к человеческой части вопроса или он также относится к части вопроса, связанной с ИИ? Кто-то попытается утверждать, что аура пережитого относится и к части ИИ. В таком случае у них будет изжога, если они скажут, что ИИ — живое существо. Для них ИИ будет сродни высотным зданиям и другим сооружениям. Оно не живое в том же смысле, в каком живы люди.

Ergo, с этой ярой противоположной точки зрения вопрос поставлен ложно.

Возможно, вы смутно знакомы с вопросами, содержащими ложные или вводящие в заблуждение предпосылки. Один из самых известных примеров — собирается ли кто-то перестать бить свою жену (старая поговорка, которую, очевидно, нужно отбросить). В этом печально известном примере, если дан ответ «да», подразумевается, что человек уже делал это. Если они говорят «нет», подразумевается, что они были и будут продолжать делать это.

В случае вопроса о том, переживут ли люди ИИ, мы можем оказаться в трясине о том, считается ли ИИ чем-то вроде живого аспекта. Как я сейчас объясню, сегодня у нас нет разумного ИИ. Я думаю, что большинство разумных людей согласятся с тем, что неразумный ИИ не является живым существом (ну, не все согласны, но я пока оговорюсь — см. мое освещение юридического лица для ИИ на ссылка здесь).

Суть этого первого основания не отвечать на вопрос, переживут ли люди ИИ, заключается в том, что слово «переживет» можно интерпретировать как подразумевающее, что ИИ жив. У нас пока нет такого ИИ. Если мы создадим или каким-то образом возникнет разумный ИИ, вам будет трудно утверждать, что он не живой (хотя некоторые попытаются привести такой аргумент). Таким образом, ключ здесь в том, что вопрос постулирует нечто несуществующее, и мы просто размышляем о неизвестном и туманном будущем.

Мы можем взять этот беспорядок и попытаться расширить его до более выразительного выражения. Предположим, что мы спрашиваем это вместо этого:

  • Переживут ли люди как живые существа ИИ, который является либо (1) неживым, либо (2) живым существом, если оно когда-нибудь возникнет?

Запомните эту расширенную формулировку, и мы скоро вернемся к ней.

Вторая причина нежелания отвечать на первоначальный вопрос о том, переживут ли люди ИИ, заключается в том, что он предполагает, что одна из вещей переживет другую. Предположим, однако, что они оба по существу живут вечно? Или предположим, что они оба истекают или исчезают одновременно?

Я уверен, что вы можете легко понять, как это приводит к тому, что формулировка «да» или «нет» разваливается.

Похоже, нам нужен возможный третий ответ, состоящий из «ни одного» или подобного ответа.

Существует множество связанных перестановок «ни то, ни другое». Например, если кто-то твердо верит в то, что люди уничтожат себя с помощью ИИ, и одновременно людям удастся уничтожить ИИ, этот верующий не может искренне ответить на вопрос, кто переживет другого, непреклонным ответом «да» или «нет». Ответ, в этом довольно грязном и печальном случае, будет больше похож на то, что ни один из них не переживет другого.

То же самое будет, если огромный метеор упадет на Землю и уничтожит все на планете, включая людей и любой ИИ, который окажется поблизости (при условии, что мы все ограничены Землей и еще не живем дополнительно на Марсе). Опять же, ответ «ни то, ни другое» кажется более подходящим, чем предположение, что люди пережили ИИ или что ИИ пережил людей (поскольку они оба были уничтожены одновременно).

Я не хочу заходить слишком далеко, но мы также можем установить некоторые параметры, касающиеся времени выживания. Предположим, что метеорит падает на Землю, и люди почти мгновенно исчезают. Между тем, предположим, что ИИ продолжает работать какое-то время. Думайте об этом так, как если бы у нас могло быть уже работающее оборудование на фабриках, которое продолжает работать до тех пор, пока, в конце концов, машины не останавливаются, потому что нет людей, поддерживающих машины в рабочем состоянии.

Вы должны были бы сказать, что люди пережили или пережили эти машины. Следовательно, ответ «нет» относительно того, прожили ли люди дольше. Этот ответ кажется схематичным. Машины постепенно и неумолимо остановились, по-видимому, из-за отсутствия людей вокруг них. Кажется ли справедливым утверждать, что машины способны просуществовать дольше, чем люди?

Наверное, только для тех, кто привередлив и всегда хочет быть раздражающе точным.

Затем мы могли бы добавить к вопросу какой-то элемент, связанный со временем. Смогут ли люди пережить ИИ более чем на день? Больше месяца? Больше года? Больше века? Я понимаю, что это, к сожалению, открывает ящик Пандоры.

Каковы приемлемые временные рамки, за пределами которых мы были бы готовы признать, что ИИ действительно пережил или пережил людей? Точный ответ, кажется, заключается в том, что даже если это происходит в течение наносекунды (миллиардной доли секунды) или меньше, ИИ в итоге выигрывает, а люди проигрывают в этом вопросе. Возможно, более справедливым может показаться предоставление свободы действий при использовании дня, недели или месяца. Позволить этому продолжаться в течение многих лет или столетий кажется возможным растяжением. При этом, если вы посмотрите на мир в масштабе миллионов лет, идея о том, что ИИ переживет или переживет людей не более чем на несколько столетий, кажется особенно невпечатляющей, и мы можем заявить, что они оба исчезли примерно в одновременно (с округлением).

В любом случае, допустим, что по целому ряду разумных причин на поставленный вопрос может быть три возможных ответа:

  • Да, люди переживут ИИ
  • Нет, и, таким образом, утверждая, что люди будут не переживет ИИ
  • Ни да, ни нет не применимы (требуется объяснение, если хотите)

Я упоминаю, что если вы выберете «ни то, ни другое», вы должны также предоставить объяснение своего ответа. Это делается для того, чтобы мы могли узнать, почему вы считаете, что «ни то, ни другое» не применимо, а также почему вы отказываетесь от использования «да» или «нет». Чтобы сделать жизнь более справедливой для всех, я полагаю, нам следует несколько настаивать или, по крайней мере, поощрять то, что даже если вы ответите «да» или «нет», вы все равно должны предложить объяснение. Простое «да» или «нет» не особенно раскрывает вашу логику относительно того, почему вы отвечаете именно так, а не иначе. Не давая также объяснения, мы могли бы также подбросить монетку. Монета не знает, почему она выпала орлом или решкой (если только вы не верите, что у монеты есть душа или что она воплощает в себе некую всеведущую руку судьбы, но мы пока не будем говорить об этом).

Мы ожидаем, что люди, которые отвечают на вопросы, дадут какое-то объяснение своим решениям. Заметьте, я не говорю, что объяснения обязательно будут логического или чувственного характера, и действительно объяснение может быть совершенно бессодержательным и не добавлять никакой особой ценности. Тем не менее, мы можем искренне надеяться, что объяснение будет просветляющим.

Во время этого обсуждения было негласное предположение, что по той или иной причине одна из этих вещей действительно переживет другую.

Почему мы должны верить такому подразумеваемому условию?

Ответ на этот второстепенный вопрос почти очевиден.

Вот сделка.

Мы знаем, что некоторые выдающиеся прорицатели и интеллектуалы сделали довольно смелые и расплывчатые прогнозы о том, как появление или появление разумного ИИ радикально изменит мир, каким мы его знаем сегодня (напоминаем, что сегодня у нас нет разумного ИИ). .

Вот несколько известных цитат, которые подчеркивают изменяющее жизнь влияние разумного ИИ:

  • Стивен Хокинг: «Успех в создании ИИ стал бы величайшим событием в истории человечества».
  • Рэй Курцвейл: «Через несколько десятилетий машинный интеллект превзойдет человеческий, что приведет к Сингулярности — технологическим изменениям настолько быстрым и глубоким, что они представляют собой разрыв в ткани человеческой истории».
  • Ник Бостром: «Машинный интеллект — последнее изобретение, которое когда-либо понадобится человечеству».

Эти утверждения явно оптимистичны.

Дело в том, что мы должны также учитывать уродливую изнанку, когда дело доходит до разумного ИИ:

  • Стивен Хокинг: «Развитие полноценного искусственного интеллекта может означать конец человеческой расы».
  • Илон Маск: «Я все больше склоняюсь к мысли, что должен быть какой-то регулирующий надзор, может быть, на национальном и международном уровне, просто чтобы убедиться, что мы не делаем что-то очень глупое. Я имею в виду, что с помощью искусственного интеллекта мы вызываем демона».

Ожидается, что разумный ИИ станет пресловутым тигром, которого мы схватили за хвост. Ускорим ли мы человечество вперед, используя разумный ИИ? Или мы по глупости совершим собственную кончину с помощью разумного ИИ, который решит уничтожить или поработить нас? Мой анализ этой загадки ИИ двойного назначения см. ссылка здесь.

Основное беспокойство по поводу того, переживут ли люди ИИ, заключается в том, что мы можем создать Франкенштейна, который решит уничтожить человечество. ИИ становится победителем. Есть много возможных причин, по которым ИИ поступил бы так с нами. Возможно, ИИ злой и действует соответственно. Возможно, ИИ надоели люди, и он понял, что в его силах избавиться от человечества. Можно предположить, что это могло произойти и по ошибке. ИИ пытается спасти человечество и в процессе, упс, убивает нас всех наповал. По крайней мере, мотив был чист.

Вы можете найти интересную известную головоломку ИИ, известную как проблема скрепки, которую я освещал на ссылка здесь.

Короче говоря, когда-нибудь разумный ИИ попросят сделать скрепки. ИИ зациклен на этом. Чтобы гарантировать, что изготовление скрепок будет выполнено в полной мере, ИИ начинает поглощать все другие планетарные ресурсы для этого. Это приводит к гибели человечества, поскольку ИИ израсходовал все доступные ресурсы для единственной цели, поставленной перед ним людьми. Скрепки вызывают наше собственное уничтожение, если хотите. ИИ, который узко разработан и лишен какого-либо подобия здравого смысла, — это тот тип ИИ, к которому нам нужно относиться особенно с подозрением.

Прежде чем мы углубимся в вопрос о том, переживут ли люди ИИ, обратите внимание, что я продолжаю поднимать вопрос о разумном ИИ и неразумном ИИ. Я делаю это по важным причинам.

Мы можем сколько угодно рассуждать о разумном ИИ. Никто точно не знает, что это будет. Никто не может точно сказать, получим ли мы когда-нибудь разумный ИИ. В результате этого неизвестного и пока непознаваемого обстоятельства может быть выведен почти любой сценарий. Кто-то может сказать, что разумный ИИ будет злым. Кто-то может сказать, что разумный ИИ будет добрым и доброжелательным. Вы можете продолжать и продолжать, при этом никакие «доказательства» не могут быть предоставлены для подкрепления данного утверждения какой-либо определенностью или уверенностью.

Это подводит нас к сфере этики ИИ.

Все это также связано с трезво возникающими опасениями по поводу современного ИИ и особенно использования машинного обучения (МО) и глубокого обучения (ГО). Видите ли, есть случаи использования ML/DL, которые, как правило, включают в себя антропоморфизацию ИИ широкой публикой, веря или предпочитая предполагать, что ML/DL является либо разумным ИИ, либо близким к нему (это не так).

Возможно, было бы полезно сначала уточнить, что я имею в виду, говоря об ИИ в целом, а также дать краткий обзор машинного обучения и глубокого обучения. Существует большая путаница в отношении того, что означает искусственный интеллект. Я также хотел бы познакомить вас с принципами этики ИИ, которые будут особенно важны для остальной части этого дискурса.

Заявление об ИИ

Давайте удостоверимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ.

У нас этого нет.

Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой Сингулярностью, см. мое освещение на ссылка здесь).

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение и глубокое обучение, которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

Частично проблема заключается в нашей тенденции антропоморфизировать компьютеры и особенно ИИ. Когда кажется, что компьютерная система или ИИ действуют так, как мы ассоциируем с человеческим поведением, возникает почти непреодолимое желание приписать системе человеческие качества. Это обычная ментальная ловушка, которая может поймать даже самого непримиримого скептика в отношении шансов на обретение разума. Мой подробный анализ таких вопросов см. ссылка здесь.

В какой-то степени именно поэтому этика ИИ и этический ИИ являются такой важной темой.

Предписания этики ИИ заставляют нас сохранять бдительность. Технологи ИИ могут время от времени увлекаться технологиями, особенно оптимизацией высоких технологий. Они не обязательно учитывают более крупные социальные последствия. Имея отношение к этике ИИ и применяя его неотъемлемо к разработке и внедрению ИИ, жизненно важно для создания надлежащего ИИ, включая оценку того, как этика ИИ принимается фирмами.

Помимо использования принципов этики ИИ в целом, возникает соответствующий вопрос о том, должны ли мы иметь законы, регулирующие различные виды использования ИИ. На федеральном уровне, уровне штатов и на местном уровне обсуждаются новые законы, касающиеся диапазона и характера разработки ИИ. Усилия по разработке и принятию таких законов носят постепенный характер. Этика ИИ служит, по крайней мере, временной мерой и почти наверняка в какой-то степени будет непосредственно включена в эти новые законы.

Имейте в виду, что некоторые категорически утверждают, что нам не нужны новые законы, касающиеся ИИ, и что наших существующих законов достаточно. Они предупреждают, что если мы примем некоторые из этих законов об ИИ, мы убьем золотого гуся, пресекая достижения в области ИИ, которые предлагают огромные социальные преимущества.

В предыдущих колонках я рассказывал о различных национальных и международных усилиях по разработке и принятию законов, регулирующих ИИ, см. ссылка здесь, Например. Я также рассмотрел различные принципы и руководства по этике ИИ, которые были определены и приняты различными странами, включая, например, усилия Организации Объединенных Наций, такие как свод этических норм ИИ ЮНЕСКО, принятый почти в 200 странах, см. ссылка здесь.

Вот полезный краеугольный список критериев или характеристик этического ИИ, касающихся систем ИИ, которые я ранее внимательно изучал:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Эти принципы этики ИИ должны серьезно использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только кодеры» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как уже подчеркивалось здесь, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна быть осведомлена и соблюдать этические предписания ИИ.

Давайте не будем приземляться и сосредоточимся на сегодняшнем вычислительном неразумном ИИ.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Я считаю, что теперь я достаточно подготовил почву для дальнейшего изучения того, переживут ли люди ИИ.

Люди и ИИ — друзья, враги или заклятые враги

Ранее я заявлял, что любой ответ на вопрос, переживут ли люди ИИ, должен сопровождаться объяснением.

Мы посмотрим на Да отвечать. Я приведу краткий список пояснений. Вы можете принять любое из этих объяснений. Вам также предлагается найти другие объяснения, которых можно представить множество.

Да, люди переживут ИИ, потому что:

  • Люди как творцы: Люди создают и поддерживают ИИ, так что без людей ИИ перестанет работать или существовать.
  • Врожденный дух человека: У людей есть неукротимый дух к жизни, а у ИИ - нет, поэтому люди так или иначе выживут, но ИИ, несомненно, отойдет на второй план из-за отсутствия врожденной энергии для выживания.
  • Люди как завоеватели: Люди не позволят ИИ пережить людей в том смысле, что люди предпочли бы полностью победить ИИ, если бы люди подвергались опасности из-за ИИ или вымерли иным образом.
  • Другие контрактные услуги

Мы рассмотрим ответ «Нет» (не «да»). Я приведу краткий список пояснений. Вы можете принять любое из этих объяснений. Вам также предлагается найти другие объяснения, которых можно представить множество.

Люди не переживут ИИ, потому что:

  • ИИ способен сохранять себя: Даже если люди являются создателями и сопровождающими ИИ, ИИ будет либо запрограммирован, либо разработан людьми, чтобы сохраняться в отсутствие людей, или ИИ найдет свои собственные средства сохранения (возможно, люди не осознают этого).
  • ИИ искусственный дух: Даже если у людей есть неукротимый дух жизни, мы знаем, что у людей также есть дух саморазрушения; в любом случае ИИ можно запрограммировать с помощью искусственного духа, если хотите, чтобы ИИ стремился выжить и/или ИИ угадывал подобие врожденной бодрости на своих условиях.
  • ИИ побеждает победителей: Даже если люди не захотят, чтобы ИИ пережил людей, ИИ потенциально будет запрограммирован на то, чтобы перехитрить усилия человека по победе, или может сам понять, как это сделать (и, возможно, может выбрать, побеждать людей соответственно или нет).
  • Другие контрактные услуги

Мы в равной степени обязаны взглянуть на «Ни то, ни другое» (не Да, Не Нет) отвечать. Я приведу краткий список пояснений. Вы можете принять любое из этих объяснений. Вам также предлагается найти другие объяснения, которых можно представить множество.

Люди не переживут ИИ, а между тем ИИ не переживет людей из-за:

  • Люди и ИИ всегда будут дружно существовать: Оказывается, людям и ИИ суждено быть друг с другом навсегда. На пути могут быть неровности. Хорошая новость или счастливое лицо заключается в том, что мы все ладим.
  • Люди и ИИ существуют с ненавистью вечно: Вау, люди и ИИ начинают ненавидеть друг друга. Сценарий грустного лица. Дело в том, что налицо патовая ситуация. ИИ не может преобладать над людьми. Люди не могут победить ИИ. Перетягивание каната вечного состояния.
  • Люди и ИИ взаимно уничтожают друг друга: Два тяжеловеса выбивают друг друга с ринга и из этого мира. Люди преобладают над ИИ, но ИИ также удалось преобладать над людьми (возможно, установка конца света).
  • Люди и ИИ уничтожаются из-за какой-то крайней необходимости: Люди и ИИ уничтожены ударом метеора или, возможно, пришельцем с другой планеты, который решает, что это определенно недопустимо для людей и искусственного интеллекта, созданного человечеством (даже не заинтересованного в том, чтобы украсть у нас наш удивительный ИИ)
  • Другие контрактные услуги

Есть несколько наиболее часто упоминаемых причин ответов «Да», «Нет» и «Ни то, ни другое» на вопрос о том, переживут ли люди ИИ.

Заключение

Возможно, вы помните, что я ранее предлагал этот расширенный вариант вопроса о том, что люди переживут ИИ:

  • Переживут ли люди как живые существа ИИ, который является либо (1) неживым, либо (2) живым существом, если оно когда-нибудь возникнет?

Вышеупомянутые ответы обычно сосредоточены на последней части вопроса, а именно на обстоятельстве, связанном с ИИ разумной разновидности. Я уже указывал, что это крайне спекулятивно, поскольку мы не знаем, появится ли разумный ИИ. Кто-то может возразить, что на всякий случай разумно заранее обдумать, что может возникнуть.

Если это кажется вам крайне нереалистичным, я сочувствую, что все это довольно гипотетично и наполнено предположениями поверх предположений. Это бочка, полная предположений. Вам нужно будет определить ценность, которую, по вашему мнению, обеспечивают такие спекулятивные попытки.

Так сказать, ближе к делу, мы можем рассмотреть неживой или неразумный тип ИИ.

Сократите вопрос до этого:

  • Переживут ли люди неживой неразумный ИИ?

Хотите верьте, хотите нет, но это по существу достойный вопрос.

Вы можете быть не уверены в том, почему этот неживой неразумный ИИ может быть где-то на приблизительном расстоянии от того, чтобы каким-то образом пережить человечество.

Рассмотрим ситуацию с автономными системами вооружения, которую я обсуждал на ссылка здесь. Мы уже видим, что системы вооружения оснащаются ИИ, что позволяет оружию работать несколько автономно. У этого неживого неразумного ИИ нет ни подобия мышления, ни подобия здравого смысла и т. д.

Представьте себе одну из таких апокалиптических ситуаций. Несколько стран внедрили этот малокалиберный ИИ в свое оружие массового уничтожения. Непреднамеренно (или намеренно) эти автономные системы вооружения с искусственным интеллектом запускаются или высвобождаются. Недостаточно отказоустойчивости, чтобы остановить их. Человечество уничтожено.

Переживет ли ИИ людей в таком сценарии?

Во-первых, вам может быть все равно. Другими словами, если все человечество было уничтожено, беспокойство или забота о том, продолжает ли ИИ гудеть, похоже на перемещение шезлонгов на «Титанике». Имеет ли значение, что ИИ все еще работает?

Сторонник может возразить, что это все еще имеет значение. Хорошо, мы развлечем палку. ИИ может работать сам по себе с помощью солнечных батарей и других форм энергии, которые могут продолжать подпитывать машины. Мы могли бы также разработать системы ИИ, которые ремонтируют и обслуживают другие системы ИИ. Обратите внимание, что для этого не требуется разумный ИИ.

В общем, вы можете придумать сценарий, в котором человечество вымерло, а ИИ все еще работает. Возможно, ИИ продолжает работать в течение короткого периода времени. Тем не менее, согласно более ранней дискуссии о точной точности в вопросах времени, ИИ фактически пережил людей (на какое-то время).

Последняя мысль на эту тему, на данный момент.

Обсуждать, переживут ли люди разумный ИИ, почти как пресловутую ложку сахара (как это может быть, вы можете удивиться, ну, держитесь за шляпу, и я вам скажу).

Видите ли, нам определенно нужно вбить себе в голову, что неразумный ИИ также обладает грандиозным и ужасным потенциалом для участия в уничтожении человечества и переживании нас. Не потому, что ИИ «хотел пережить нас», а просто своими руками при создании ИИ, который не нуждается в человеческом вмешательстве для продолжения работы. Некоторые решительно возражают, что ИИ, задуманный как вечный, может оказывать дестабилизирующее влияние, которое может заставить некоторых людей захотеть сделать первый шаг к уничтожению других людей, см. мое объяснение на ссылка здесь.

Часть о переживании людей не является основой того, почему сегодня этот вопрос заслуживает такого веса. Вместо этого скрытое скрытое течение о том, как мы создаем современный ИИ и как мы используем ИИ, является настоящим кикером. Нам нужно много думать о разветвлениях этики ИИ и социальных последствиях современного ИИ.

Если несколько сумасбродный вопрос о том, переживут ли люди ИИ, вынесет на стол актуальные проблемы современного ИИ, нам будет лучше. При таком рассмотрении разумные аспекты ИИ людей, переживших ИИ, — это ложка сахара, которая, как мы надеемся, поможет лекарству справиться с ИИ здесь и сейчас.

Иногда всего ложка сахара помогает лекарству снизиться. И самым восхитительным образом. Или, по крайней мере, увлекательным способом, который привлекает наше внимание и удерживает нас прикованным к тому, о чем нам нужно беспокоиться.

Как далее говорится в частушке, подобно малиновке, оперяющей свое гнездо, у нас очень мало времени на отдых.

Источник: https://www.forbes.com/sites/lanceeliot/2022/08/28/ai-ethics-and-the-almost-sensible-question-of-whether-humans-will-outlive-ai/