Этика ИИ и стремление к самосознанию в ИИ

Вы осознаете себя?

Могу поспорить, что вы верите, что вы есть.

Дело в том, что, мол, мало кто из нас особенно осознает себя. Существует диапазон или степень самосознания, и все мы якобы различаемся по степени проницательности самосознания. Вы можете думать, что полностью осознаете себя, но это лишь незначительно. Возможно, вы слабо осознаете себя и понимаете, что это ваше психическое состояние.

Между тем, в самой верхней части спектра вы можете полагать, что полностью осознаете себя, и, честно говоря, осознаете себя настолько, насколько это возможно. Повезло тебе.

Кстати говоря, что хорошего в том, чтобы быть чрезвычайно самосознательным?

Согласно исследованиям, опубликованным в Harvard Business Review (HBR) Таши Эйрих, вы, как сообщается, способны принимать лучшие решения, вы более уверены в своих решениях, вы сильнее в своих коммуникативных способностях и в целом более эффективны (согласно статье, озаглавленной «Что такое самосознание на самом деле (и как культивировать его)». Дополнительным фактором является то, что люди с резким самосознанием, как говорят, менее склонны обманывать, воровать или лгать. стремясь стать лучше и украшать своих собратьев.

Все эти разговоры о самосознании поднимают довольно очевидный вопрос, а именно, что на самом деле означает фраза «самосознание». Вы можете легко найти множество различных определений и интерпретаций сложной и, скажем так, мягкой конструкции, влекущей за собой самосознание. Некоторые упростили бы дело, предполагая, что самосознание состоит в наблюдении за собой, в знании того, чем вы занимаетесь. Вы четко осознаете свои мысли и действия.

Предположительно, не осознавая себя, человек не осознает, что он делает и почему, а также не будет знать, что другие люди говорят о нем. Уверен, вы встречали таких людей.

Кажется, что некоторые люди ходят по этой земле, не подозревая о том, что они сами делают, и не имеют ни малейшего представления о том, что о них говорят другие. Я думаю, вы могли бы возразить, что они похожи на быка, нападающего головой вниз в бутике хрупких вещей. Мы обычно склонны полагать, что бык не знает, что делает, и не обращает внимания на точки зрения других, если только эти другие не попытаются физически маневрировать или загнать невежественное существо в загон.

Говорят, что самосознание может быть несколько рекурсивным.

Позвольте мне набросать пример, чтобы проиллюстрировать эту рекурсию. Вы смотрите на своем смартфоне довольно захватывающее видео с котиками (похоже, все так делают). У некоторых людей не было бы никаких других очевидных мыслей, кроме чудесных трогательных выходок этих милых кошек. Между тем, любой, у кого есть хоть немного самосознания, знает, что смотрит видео с котом. Они также могут знать, что окружающие замечают, что они смотрят видео с кошками.

Обратите внимание, что вы можете осознавать себя и все же быть погруженным в, скажем так, конкретную основную деятельность. Основное действие в этом случае — просмотр видео с кошками. Во вторую очередь, и одновременно, вы можете нести мысль, что вы на самом деле смотрите кошачье видео. Вы также можете думать, что другие наблюдают за вами, пока вы смотрите забавное видео с кошками. Вам не обязательно прекращать какое-либо действие, например, прекращать просмотр видео с котиками, чтобы затем отдельно подумать о том, что вы смотрите (или только что смотрели) видео с котиками. Эти мысли, казалось бы, могут возникать параллельно друг с другом.

Иногда наше самосознание может выбить нас из основной умственной деятельности или, по крайней мере, прервать ее. Возможно, когда вы думаете о просмотре видео с котом, ваш разум частично отключается, так как он перенапрягается, чтобы сосредоточиться исключительно на самом видео. Затем вы решаете перемотать видео назад, чтобы вернуться к той части, которую вы как бы видели, но которую вы мысленно отвлекли от полного понимания. Самосознание нарушило вашу основную умственную деятельность.

Хорошо, теперь мы готовы к возникновению рекурсивных аспектов.

Готовы ли вы?

Вы смотрите видео с котом. Ваше самосознание информирует вас о том, что вы смотрите видео с кошками и что другие наблюдают за вами, пока вы смотрите это видео. Это статус-кво.

Затем вы делаете дополнительный мысленный скачок. Вы начинаете думать о своем самосознании. Вы осознаете, что задействуете свое самосознание. Вот как это происходит: не слишком ли много я думаю о просмотре видео с кошками, спрашиваешь ты себя в отчаянии? Это еще один уровень самосознания. Самосознание стоит выше других самосознаний.

Есть старая поговорка, что это черепахи на всем пути вниз. Что касается феномена самосознания, вы можете быть:

  • Не осознавая себя
  • Самосознание себя
  • Самосознание вашего самосознания себя
  • Самоосознание того, что ты есть, осознание того, что ты осознаешь себя
  • Ad Infinitum (т.е. и так далее)

Возможно, вы поняли, что ранее я тонко указывал на то, что, по-видимому, существуют две основные категории самосознания. Одна конкретная теория постулирует, что у нас есть своего рода внутреннее самосознание, которое сосредотачивается на наших внутренних состояниях, и у нас также есть внешнее самосознание, которое помогает оценить восприятие нас окружающими, которые смотрят на нас.

Согласно статье HBR, вот краткое описание теоретических двух типов самосознания: «Первый, который мы назвали внутреннее самосознаниепоказывает, насколько ясно мы видим наши собственные ценности, увлечения, стремления, соответствие нашей среде, реакции (включая мысли, чувства, поведение, сильные и слабые стороны) и влияние на других». А между тем другое: «Вторая категория, внешнее самосознание, означает понимание того, как другие люди относятся к нам с точки зрения тех же факторов, перечисленных выше. Наше исследование показывает, что люди, которые знают, как их видят другие, лучше проявляют сочувствие и принимают точку зрения других».

Удобную матрицу «два на два» или «четыре квадрата» можно получить, утверждая, что и внутреннее, и внешнее самосознание варьируются от высокого до низкого, и вы можете сопоставить эти две категории друг с другом. Исследование HBR показывает, что вы принадлежите к одному из этих четырех архетипов самосознания:

  • Интроспектор: Низкое внешнее самосознание + Высокое внутреннее самосознание
  • Искатель: Низкое внешнее самосознание + Низкое внутреннее самосознание
  • Угодник: высокое внешнее самосознание + низкое внутреннее самосознание
  • Осознанность: высокое внешнее самосознание + высокое внутреннее самосознание

Вершиной будет архетип «Осознания», который состоит из нахождения на верхней ступени внешнего самосознания, а также на вершине внутреннего самосознания. Чтобы уточнить, вы не достигаете этой хваленой позы обязательно постоянным способом. Вы можете скользить туда-сюда между высоким и низким, как между внутренними, так и внешними сферами самосознания. Это может зависеть от времени суток, ситуации, в которой вы оказались, и множества других существенных факторов.

Теперь, когда мы любезно рассмотрели некоторые основополагающие элементы самосознания, мы можем попытаться связать это с темой этического поведения.

Обычное утверждение о самосознании состоит в том, что вы с большей вероятностью будете откровенны, когда осознаете себя. Это означает, как уже указывалось, что вы менее склонны к неблагоприятному этичному поведению, такому как воровство, мошенничество и ложь. Обоснование этой тенденции состоит в том, что активность вашего самосознания заставит вас осознать, что ваше собственное поведение неприемлемо или неэтично. Мало того, что вы ловите себя на том, что сворачиваете в мутные неэтичные воды, вы также склонны выводить себя обратно на сушу (святость этической территории), так сказать.

Ваше самосознание помогает вам контролировать себя.

Контраст, по-видимому, будет, когда самосознание мало или отсутствует, что предполагает, что кто-то, возможно, не обращает внимания на свою склонность к неэтичному поведению. Вы могли бы возразить, что такой неосведомленный человек может не осознавать, что он действует неблагоприятно. Подобно быку в магазине бьющихся вещей, пока что-то более явное не привлечет их внимание, они вряд ли смогут себя контролировать.

Кстати, не все покупаются на это. Кто-то может возразить, что самоосознание можно так же легко применить к неэтичности, как и к этичности. Например, злодей может полностью осознавать себя и наслаждаться тем, что совершает проступок. Их самосознание даже все более резко подталкивает их ко все более и более масштабным актам гнусного проступка.

В этом больше облачности, чем может показаться на первый взгляд. Предположим, кто-то хорошо осознает себя, но не знает об этических нравах данного общества или культуры. Таким образом, у них нет никаких этических указаний, несмотря на заявленный факт, что они обладают самосознанием. Или, если хотите, возможно, человек знает об этических предписаниях и не верит, что они применимы к ним. Они считают себя уникальными или выходящими за рамки общепринятого этического мышления.

И так по кругу.

Некоторые горячо подчеркивают, что самосознание можно рассматривать как обоюдоострый этический меч.

На данный момент давайте возьмем версию со счастливым лицом, состоящую из самосознания, которое в целом направляет или подталкивает нас к этичному поведению. При прочих равных условиях мы сделаем дерзкое предположение, что чем больше у вас самосознания, тем больше этических склонностей вы будете придерживаться. Конечно, приятно и вдохновляюще желать этого.

Давайте переключим передачу и добавим в картину искусственный интеллект (ИИ).

Мы находимся на стыке этого обсуждения, чтобы связать все продолжающиеся затруднения с растущим царством этического ИИ, также широко известного как этика ИИ. Мой постоянный и обширный обзор этики ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Понятие этического ИИ влечет за собой переплетение области этики и этического поведения до появления ИИ. Вы, конечно, видели заголовки, которые бьют тревогу по поводу ИИ, изобилующего несправедливостью и различными предубеждениями. Например, есть опасения, что системы распознавания лиц на основе ИИ могут время от времени проявлять расовую и гендерную дискриминацию, как правило, в результате того, как базовые средства машинного обучения (МО) и глубокого обучения (ГО) были обучены и задействованы (см. мой анализ). в эта ссылка здесь).

Чтобы попытаться остановить или, по крайней мере, смягчить беспорядочный натиск на AI для плохих, состоящих из систем ИИ, которые либо непреднамеренно, либо иногда преднамеренно формируются так, чтобы действовать плохо, в последнее время возникла острая необходимость применить этические предписания к разработке и использованию ИИ. Серьезная цель состоит в том, чтобы предоставить этические рекомендации разработчикам ИИ, а также фирмам, которые создают или внедряют ИИ, а также тем, кто зависит от приложений ИИ. В качестве примера разработки и принятия принципов этического ИИ см. мое освещение на ссылка здесь.

Дайте время для размышлений, чтобы рассмотреть эти три чрезвычайно важных вопроса:

  • Можем ли мы заставить разработчиков ИИ принять принципы этического ИИ и применить эти принципы на практике?
  • Можем ли мы заставить фирмы, которые создают или внедряют ИИ, поступать так же?
  • Можем ли мы сделать так, чтобы те, кто использует ИИ, были осведомлены об этических аспектах ИИ?

Я бы беззастенчиво сказал это, это трудная задача.

Острые ощущения от создания ИИ могут пересилить любые намеки на внимание к этике ИИ. Ну, не только острые ощущения, но и зарабатывание денег является неотъемлемой частью этого уравнения. Вы можете быть удивлены, узнав, что некоторые в сфере ИИ склонны говорить, что они займутся «вещами» этического ИИ, как только они выставят свои системы ИИ за дверь. Это типичная мантра технаря: терпеть неудачи быстро и часто, пока вы не сделаете все правильно (надеюсь, вы все сделаете правильно).

Конечно, те, кто навязывает широкой публике этически сомнительный ИИ, выпускают лошадь из сарая. Их провозглашенная натянутая идея состоит в том, что AI для плохих будет исправлено после того, как оно будет использоваться ежедневно, что пагубно запоздало, поскольку лошадь уже бессмысленно скачет вокруг. Можно нанести вред. Существует также повышенная вероятность того, что ничего не будет исправлено или скорректировано во время использования ИИ. Частое оправдание состоит в том, что возня с ИИ на этом этапе может сделать его еще хуже с точки зрения и без того неэтичного алгоритмического принятия решений (ADM), который полностью сойдет с ума.

Что можно сделать, чтобы получить пользу и жизнеспособность от этического ИИ как ярко сияющего и направляющего света в умах тех, кто создает ИИ, внедряет ИИ и использует ИИ?

Ответ: Самосознание.

Да, идея состоит в том, что если бы люди были более осведомлены о том, как они используют ИИ или взаимодействуют с ним, это могло бы повысить их склонность к тому, чтобы желать, чтобы этичный ИИ стал нормой. То же самое можно сказать о разработчиках ИИ и компаниях, связанных с системами ИИ. Если бы они лучше осознавали то, что делают, возможно, они больше придерживались бы этики ИИ.

Часть логики, как уже было сказано, заключается в том, что самосознание предлагает тенденцию быть лучше с этической точки зрения, а также избегать быть этически паршивым человеком. Если мы сможем сохранить эту предпосылку, это означает, что разработчики ИИ, более склонные к самосознанию, будут, следовательно, склонны к этичному поведению и, следовательно, будут склонны к созданию этически обоснованного ИИ.

Это слишком далеко для вас?

Кто-то скажет, что косвенность — это слишком. Чрезмерную цепочку связей между самосознанием, этической добродетелью и применением этических предписаний к ИИ, возможно, трудно проглотить. Контраргументом является то, что попытка не повредит.

Скептики сказали бы, что разработчик ИИ может обладать самосознанием и, возможно, быть более этичным, но они не обязательно будут стремиться применить этот ментальный лагерь к нравам этического ИИ. Ответ на это сомнение заключается в том, что если мы сможем предать гласности и популяризировать вопросы этики ИИ, то кажущаяся незначительная связь станет более очевидной, ожидаемой и, возможно, станет стандартным способом ведения дел, когда дело доходит до создания ИИ.

Теперь я собираюсь добавить поворот к этой саге. От этого поворота может закружиться голова. Пожалуйста, убедитесь, что вы хорошо сели и готовы к тому, что я собираюсь показать.

Некоторые отмечают, что мы должны встраивать этический ИИ непосредственно в сам ИИ.

Вас может поставить в тупик это заявление. Распаковываем.

Программист может создать систему ИИ и сделать это со своим собственным программным самосознанием, пытаясь предотвратить воплощение ИИ предубеждений и неравенства. Вместо того, чтобы просто корпеть над программированием, разработчик оглядывается через плечо, чтобы спросить, приведет ли применяемый подход к необходимому отсутствию неблагоприятных элементов в ИИ.

Отлично, у нас есть разработчик ИИ, который, кажется, достаточно самосознателен, стремился принять этичное поведение и увидел свет, чтобы включить этические предписания при создании своей системы ИИ.

Одержите победу за этичный ИИ!

Все хорошо, хотя кое-что может выясниться позже. ИИ вводится в действие и используется ежедневно. Часть ИИ включала компонент для «обучения» на лету. Это означает, что ИИ может настроить себя на основе новых данных и других аспектов исходного программирования. Вкратце: это не означает, что ИИ разумен. У нас нет разумного ИИ. Не обращайте внимания на дурацкие заголовки, говорящие, что мы это делаем. Никто не может сказать, будет ли у нас разумный ИИ, и никто не может достаточно точно предсказать, когда это произойдет.

Возвращаясь к нашей истории, ИИ был специально разработан, чтобы улучшаться в процессе работы. Довольно удобное понятие. Вместо того, чтобы программистам приходилось постоянно вносить улучшения, они позволяют программе ИИ делать это самой (вау, это что, работать без работы?).

В то время как ИИ дюйм за дюймом подстраивается, оказывается, что различные отвратительные несправедливости и предубеждения вкрадываются в систему ИИ посредством ее собственных актов изменения. В то время как программист изначально утаивал эти захудалые аспекты, теперь они формулируются из-за корректировки ИИ на лету. К сожалению, это может происходить настолько тонко, закулисно, что никто не может быть мудрее. Те, кто раньше мог дать «зеленый свет» ИИ после первоначального исчерпывающего тестирования, теперь слепо не осознают, что ИИ пошел по гнилому пути AI для плохих.

Одним из средств предотвращения или, по крайней мере, обнаружения этого нежелательного явления было бы встраивание в ИИ своего рода средства двойной проверки этического ИИ. Компонент внутри ИИ запрограммирован на наблюдение за поведением ИИ и обнаружение начала появления неэтичного ADM. Если это так, компонент может отправить предупреждение разработчикам ИИ или фирме, использующей систему ИИ.

Более продвинутая версия этого компонента может попытаться исправить ИИ. Это была бы корректировка корректировок, превращение неэтичных возникающих аспектов обратно в надлежащие этические параметры. Вы можете себе представить, что этот тип программирования сложен. Есть шанс, что он может сбиться с пути, превратив неэтичное в глубоко неэтичное. Существует также вероятность ложного срабатывания, запускающего компонент в действие и, возможно, искажающего ситуацию.

Во всяком случае, не увязая в том, как эта двойная проверка будет работать, мы собираемся сделать дерзкое заявление об этом. Вы могли бы предположить, что в каком-то ограниченном смысле ИИ обладает самосознанием.

Yikes, это боевые слова для многих.

Преобладающее убеждение почти всех состоит в том, что сегодняшний ИИ не обладает самосознанием. Полная остановка, точка. Пока мы не достигнем разумного ИИ, о котором мы не знаем, произойдет ли он и когда, не будет никакого ИИ, обладающего самосознанием. По крайней мере, в смысле ориентированного на человека самосознания. Даже не предполагайте, что это может произойти.

Я, безусловно, согласен с тем, что нам нужно быть осторожными с антропоморфизацией ИИ. Я скажу больше об этом беспокойстве через мгновение.

Между тем, если вы ради обсуждения будете готовы использовать поэтапное «самосознание» в расплывчатой ​​манере, я полагаю, вы легко поймете, почему можно сказать, что ИИ следует общему понятию самосознания. осведомленность. У нас есть часть ИИ, которая следит за остальной частью ИИ, отслеживая, чем занимается остальная часть ИИ. Когда остальная часть ИИ начинает выходить за рамки, часть мониторинга пытается это обнаружить. Кроме того, часть мониторинга ИИ или двойная проверка могут направить остальную часть ИИ обратно на правильные полосы движения.

Разве это не похоже на то, как вы смотрите эти видео с кошками и осознаете, что вы это делаете?

В нем есть знакомое кольцо.

Мы можем расширить это еще больше. Компонент двойной проверки ИИ запрограммирован не только для наблюдения за поведением остальной части ИИ, но и для наблюдения за поведением тех, кто использует ИИ. Как пользователи работают с ИИ? Предположим, что некоторые пользователи выражают возмущение тем, что ИИ, кажется, дискриминирует их. Система двойной проверки ИИ могла бы уловить это, используя это как еще один сигнал тревоги о том, что остальная часть ИИ сбилась с пути.

Это приводит к категоризации внутреннего самосознания и внешнего самосознания.

Двойная проверка ИИ сканирует внутреннюю и внешнюю среду, чтобы выяснить, не ушла ли остальная часть ИИ в беспокойные моря. Обнаружение поднимет флаг или вызовет самокоррекцию.

Давайте добавим еще одно несколько ошеломляющее расширение. Мы создаем еще одно средство двойной проверки ИИ, предназначенное для перепроверки основного средства двойной проверки ИИ. Почему так? Что ж, предположим, что система двойной проверки ИИ дает сбои или не справляется со своей работой. Средство двойной проверки ИИ будет пытаться обнаружить эту неисправность и принять соответствующие меры. Добро пожаловать в рекурсивную природу самосознания, как могут с гордостью заявить некоторые, демонстрируемую в вычислительной системе ИИ.

Для тех из вас, кто уже находится на краю своего места по этому поводу, последний комментарий на данный момент заключается в том, что мы могли бы попытаться предположить, что если вы сделаете системы ИИ «самосознательными», они потенциально будут тяготеть к этичному поведению. Они делают это на разумной основе? Решительно, нет. Делают ли они это на вычислительной основе? Да, хотя мы должны четко заявить, что оно не того калибра, что человеческое поведение.

Если вам неудобно, что понятие самосознания ошибочно искажается, чтобы вписать его в вычислительную схему, ваши опасения по этому поводу хорошо известны. Должны ли мы положить конец продолжающимся усилиям ИИ, которые используют это понятие, — еще один открытый вопрос. Вы можете убедительно утверждать, что, по крайней мере, это, кажется, ведет нас к лучшему результату того, что, вероятно, сделает ИИ. Мы должны, однако, иметь наши глаза широко открытыми, как это происходит.

Думаю, нам нужно посмотреть, как все это закончится. Вернитесь к этому через пять, десять и пятьдесят лет и посмотрите, изменилось ли ваше отношение к спорному вопросу.

Я понимаю, что это было несколько головокружительное исследование темы, и вы, возможно, жаждете примеров из повседневной жизни. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-нибудь о том, что у ИИ есть подобие «самосознания», и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

На 5-м уровне еще нет настоящей машины для самостоятельного вождения, о которой мы еще даже не знаем, удастся ли этого достичь, и сколько времени потребуется, чтобы туда добраться.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Самоуправляемые автомобили и ИИ с так называемым самосознанием

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я верю, что это дает достаточный перечень предостережений, чтобы обосновать то, что я собираюсь рассказать.

Теперь мы готовы глубоко погрузиться в самоуправляемые автомобили и этические вопросы ИИ, влекущие за собой вызывающее удивление представление о том, что ИИ обладает своего рода самосознанием, если хотите.

Возьмем простой пример. Беспилотный автомобиль на основе искусственного интеллекта движется по улицам вашего района и, кажется, едет безопасно. Поначалу вы уделяли особое внимание каждому случаю, когда вам удавалось мельком увидеть беспилотный автомобиль. Автономное транспортное средство выделялось своей стойкой электронных датчиков, включая видеокамеры, радары, устройства LIDAR и тому подобное. После многих недель, когда беспилотный автомобиль колесит по вашему району, вы едва замечаете его. Насколько вам известно, это просто еще одна машина на и без того загруженных дорогах общего пользования.

Чтобы вы не думали, что знакомство с беспилотными автомобилями невозможно или неправдоподобно, я часто писал о том, как места, которые находятся в рамках испытаний беспилотных автомобилей, постепенно привыкли видеть обновленные автомобили. см. мой анализ на эта ссылка здесь. Многие из местных жителей в конечном итоге перешли от восторженного таращивания рта, разинув рот, к тому, чтобы теперь широко зевать от скуки, наблюдая за этими извилистыми беспилотными автомобилями.

Вероятно, главная причина, по которой сейчас они могут заметить автономные транспортные средства, заключается в факторе раздражения и раздражения. Стандартные системы вождения с искусственным интеллектом следят за тем, чтобы автомобили соблюдали все ограничения скорости и правила дорожного движения. Для беспокойных водителей-людей в их традиционных автомобилях, управляемых людьми, вы иногда раздражаетесь, когда застреваете за строго законопослушными самоуправляемыми автомобилями на основе искусственного интеллекта.

Это то, к чему нам всем, возможно, нужно привыкнуть, справедливо это или нет.

Вернемся к нашей сказке. Однажды предположим, что в вашем городе или поселке беспилотный автомобиль приближается к знаку «Стоп» и, похоже, не замедляется. Боже, похоже, что система вождения с искусственным интеллектом заставит беспилотный автомобиль проехать сразу после знака «Стоп». Представьте, если бы пешеход или велосипедист был где-то поблизости и был бы застигнут врасплох тем, что беспилотный автомобиль не остановится должным образом. Позорно. Опасный!

Причем, нелегально.

Давайте теперь рассмотрим компонент ИИ в системе управления ИИ, который действует как стиль самосознательной двойной проверки.

Мы воспользуемся моментом, чтобы вникнуть в детали того, что происходит внутри системы управления ИИ. Выяснилось, что видеокамеры, установленные на беспилотном транспортном средстве, зафиксировали то, что, возможно, было знаком «Стоп», хотя в этом случае разросшееся дерево сильно затеняет знак «Стоп». Система машинного обучения и глубокого обучения, которая изначально была обучена на знаках «Стоп», была разработана на шаблонах в основном полных знаков «Стоп», как правило, неограниченных. При компьютерном анализе видеоизображения была назначена низкая вероятность того, что в этом конкретном месте существовал знак «Стоп» (в качестве дополнительной сложности и дополнительного объяснения, это был недавно размещенный знак «Стоп», которого не было на предварительно подготовленных цифровых картах, которые Система вождения AI полагалась).

В общем, система управления ИИ вычислила, что нужно двигаться вперед, как если бы знак «Стоп» либо не существовал, либо, возможно, был знаком другого типа, который, возможно, напоминал бы знак «Стоп» (это может происходить и происходит с некоторой частотой).

Но, к счастью, двойная проверка ИИ, обладающая самосознанием, отслеживала действия системы управления ИИ. После вычислительного анализа данных и оценки остальной части ИИ этот компонент решил отменить нормальный ход действий и вместо этого приказал системе управления ИИ остановиться.

Никто не пострадал, противоправных действий не возникло.

Можно сказать, что двойная проверка ИИ с самосознанием действовала так, как если бы она была встроенным юридическим агентом, пытающимся гарантировать, что система управления ИИ соблюдает закон (в данном случае знак «Стоп»). Конечно, безопасность тоже была важна.

Мы надеемся, что этот пример демонстрирует, как может работать задуманная система двойной проверки с самосознанием ИИ.

Далее мы можем кратко рассмотреть более заметный пример этического ИИ, который иллюстрирует, как самосознательная двойная проверка ИИ может обеспечить встроенную функциональность, ориентированную на этический ИИ.

Во-первых, в качестве предыстории, одна из опасений, которая была выражена в связи с появлением беспилотных автомобилей на основе ИИ, заключается в том, что они могут в конечном итоге использоваться несколько непреднамеренно дискриминационным образом. Вот как. Предположим, что эти беспилотные автомобили настроены так, чтобы попытаться максимизировать свой потенциальный доход, что определенно имеет смысл для тех, кто управляет парком доступных беспилотных автомобилей для совместного использования. Владелец флота хотел бы иметь прибыльную деятельность.

Может случиться так, что в данном городе или городе бродячие беспилотные автомобили постепенно начнут обслуживать одни части общества, а не другие. Они делают это с целью зарабатывания денег, поскольку более бедные районы могут не приносить такого дохода, как более богатые районы. Это не явное стремление служить одним областям и не служить другим. Вместо этого органично возникает идея, что ИИ беспилотных автомобилей вычисляет, что можно заработать больше денег, сосредоточившись на географически более высокооплачиваемых областях. Я обсуждал эту общественную этическую проблему в своей колонке, например, в ссылка здесь.

Предположим, что мы добавили двойную проверку ИИ с самосознанием в управляющие системы ИИ. Через некоторое время компонент ИИ вычисляет схему движения беспилотных автомобилей. Примечательно, что в одних областях, но не в других. Основываясь на кодировании некоторых этических предписаний ИИ, самосознательный двойник-проверщик ИИ начинает направлять беспилотные автомобили в другие части города, которыми в противном случае пренебрегали.

Это иллюстрирует понятие самосознания ИИ и делает это в сочетании с элементом этического ИИ.

Еще один такой пример может пролить свет на то, что это соображение об этическом ИИ может быть весьма отрезвляющим и серьезным разветвлением жизни или смерти.

Рассмотрим новостной репортаж о недавней автокатастрофе. Сообщается, что водитель-человек подъезжал к оживленному перекрестку и ехал прямо. Другой водитель промчался на красный свет и выехал на перекресток, когда этого делать не следовало. Водитель с зеленым светом в последний момент понял, что эта другая машина собирается сильно врезаться в его машину.

По словам этого находящегося в опасности водителя, он сознательно рассчитал, что либо его столкнет другая машина, либо он может свернуть, чтобы попытаться избежать нарушителей. Проблема с поворотом заключалась в том, что поблизости находились пешеходы, которым угрожала опасность.

Какой выбор вы бы сделали?

Вы можете подготовиться к удару и надеяться, что урон не покалечит и не убьет вас. С другой стороны, вы можете радикально отклониться, но подвергнуть серьезной опасности и, возможно, нанести вред или убить находящихся поблизости пешеходов. Это сложная проблема, включающая в себя моральное суждение и полностью пропитанная этическими (и юридическими) последствиями.

Существует общее этическое затруднение, которое охватывает такого рода дилемму, известное или, возможно, печально известное как проблема вагонетки, см. мой обширный обзор на эта ссылка здесь. Оказывается, это этически стимулирующий мысленный эксперимент, восходящий к началу 1900-х годов. Таким образом, эта тема существует уже довольно давно и в последнее время стала ассоциироваться с появлением искусственного интеллекта и беспилотных автомобилей.

Замените водителя-человека системой вождения с искусственным интеллектом, встроенной в беспилотный автомобиль.

Представьте себе, что беспилотный автомобиль с искусственным интеллектом выезжает на перекресток, и датчики автономного транспортного средства внезапно обнаруживают, что управляемый человеком автомобиль опасно проезжает прямо на красный свет и целится в беспилотный автомобиль. Предположим, что в беспилотном автомобиле есть пассажиры.

Что вы хотите, чтобы ИИ делал?

Если система вождения ИИ решит двигаться вперед и врезаться (вероятно, причинив вред или, возможно, убив пассажиров внутри транспортного средства), или вы хотите, чтобы система вождения ИИ рискнула и отклонилась, хотя действие поворота требует автономного транспортного средства опасно приближаться к находящимся рядом пешеходам и может причинить им вред или убить их.

Многие производители беспилотных автомобилей с искусственным интеллектом подходят к этим сложным этическим проблемам, связанным с искусственным интеллектом, с головой в песок. По большому счету, ИИ в том виде, в каком он запрограммирован в настоящее время, просто рванул бы вперед и был яростно протаранен другой машиной. ИИ не был запрограммирован на поиск каких-либо других маневров уклонения.

Я неоднократно предсказывал, что эта позиция производителей беспилотных автомобилей с искусственным интеллектом «не вижу зла и не слышу зла» в конечном итоге придет к ним и укусит их (мой анализ находится на ссылка здесь). Вы можете ожидать судебных исков, связанных с такими автомобильными авариями, которые будут пытаться выяснить, на что был запрограммирован ИИ. Была ли компания, разработчики ИИ или оператор автопарка, разработавшие и внедрившие ИИ, небрежными или ответственными за то, что ИИ сделал или не сделал? Вы также можете ожидать, что, как только произойдут такие случаи, разразится широкая огненная буря этической осведомленности об ИИ.

В эту дилемму этического ИИ вступает наш хваленый ИИ с самосознанием и двойной проверкой, ориентированный на этику. Возможно, этот специальный компонент ИИ может быть задействован в подобных обстоятельствах. Часть отслеживает остальную часть системы вождения AI и состояние беспилотного автомобиля. Когда возникает такой ужасный момент, компонент ИИ служит средством решения проблем тележки и предлагает то, что должна делать система управления ИИ.

Нелегко кодировать, уверяю вас.

Заключение

Поделюсь с вами последней мыслью на данный момент по этой теме.

Вы, вероятно, найдете это интригующим.

Знаете ли вы о зеркальный тест?

Это достаточно хорошо известно в исследованиях самосознания. Другими названиями этого вопроса являются тест на узнавание себя в зеркале, тест на красное пятно, тест на румяна и связанные с ними формулировки. Техника и подход были первоначально разработаны в начале 1970-х годов для оценки самосознания животных. Сообщается, что животные, успешно прошедшие тест, включают человекообразных обезьян, некоторые виды слонов, дельфинов, сорок и некоторых других. Животные, которые были протестированы и, как сообщается, не прошли тест, включают гигантских панд, морских львов и т. д.

Вот сделка.

Когда животное видит себя в зеркале, понимает ли оно, что отображаемое изображение принадлежит ему самому, или оно думает, что это другое животное?

Предположительно, животное зрительно узнает свой вид, увидев себе подобных, и поэтому может подумать, что животное, показанное в зеркале, является двоюродным братом или, может быть, воинственным конкурентом (особенно, если животное огрызается на зеркальное отражение, которое в очередь, кажется, рычит на них в ответ). Возможно, вы видели, как ваша домашняя кошка или любимая собака делают то же самое, когда впервые видят себя в домашнем зеркале.

В любом случае мы бы предположили, что дикое животное никогда раньше не видело себя. Что ж, это не обязательно верно, так как, возможно, животное мельком увидело себя в спокойной луже воды или сквозь блестящую горную породу. Но это считается менее вероятным шансом.

Хорошо, мы хотим как-то оценить, способно ли животное понять, что это на самом деле животное, показанное в зеркале. Подумайте об этом, казалось бы, простом поступке. Люди в молодом возрасте понимают, что они существуют, и что их существование демонстрируется, когда они видят себя в зеркале. Они начинают осознавать себя. Теоретически вы можете не осознавать, что вы — это вы, пока не увидите себя в зеркале.

Возможно, животные не способны когнитивно осознать себя таким же образом. Может случиться так, что животное увидит себя в зеркале и будет постоянно верить, что это какое-то другое животное. Сколько бы раз оно ни увидело себя, оно все равно будет думать, что это другое животное, чем оно само.

Трюк часть этого вступает в игру. Делаем отметку на животном. Эта метка должна быть видна только тогда, когда животное видит себя в зеркале. Если животное может повернуться или повернуться и увидеть метку на себе (непосредственно), это разрушит эксперимент. Кроме того, животное не может ощутить, обонять или каким-либо другим образом обнаружить метку. Опять же, если бы они это сделали, это разрушило бы эксперимент. Животное не может знать, что мы наносим на него метку, поскольку это подскажет ему, что там что-то есть.

Мы хотим сузить круг вопросов таким образом, чтобы единственная возможная причина обнаружения метки заключалась в том, чтобы посмотреть на себя в зеркало.

Ага, тест готов. Животное ставится перед зеркалом или бредет к нему. Если животное впоследствии попытается дотронуться до метки или выкопать ее, мы можем разумно заключить, что это могло бы произойти только в том случае, если бы животное осознало, что метка была на нем самом. Очень немногие виды животных смогли успешно пройти это испытание.

Существует множество критических замечаний по поводу теста. Если человек-испытатель находится поблизости, он может выдать вещи, глядя на метку, что может заставить животное потрогать или нащупать ее. Другая возможность состоит в том, что животное все еще верит, что в зеркале показано другое животное, но оно принадлежит к тому же типу, и поэтому животное задается вопросом, есть ли у него отметина, подобная той, что была на другом животном.

Это продолжается и продолжается.

Я уверен, что вы рады узнать об этом и впредь поймете, почему на животном, которое иначе не имело бы такой отметки, есть точка или какая-то странная отметина. Кто знает, возможно, он недавно закончил эксперимент с зеркалом. Поздравьте животное, благоразумно, за то, что оно было щедрым участником.

Какое отношение все это имеет к беспилотным автомобилям на основе ИИ?

Вам понравится эта часть.

Беспилотный автомобиль едет по длинному шоссе. Система вождения AI использует датчики для обнаружения других транспортных средств. Это двухполосное шоссе, по которому движение идет на север по одной полосе и на юг по другой полосе. Иногда легковые и грузовые автомобили пытаются разъехаться, въезжая на встречную полосу, а затем возвращаясь на свою полосу движения.

Вы видели это, вы, несомненно, сделали это.

Могу поспорить, что этот следующий аспект случился и с вами. Впереди беспилотного автомобиля находится один из тех крупных грузовиков-цистерн. Он сделан из блестящего металла. Отполированный и чистый как свисток. Находясь позади такого грузовика, вы можете видеть зеркальное отражение своего автомобиля через заднюю часть автоцистерны. Если вы видели это, то знаете, насколько это может быть завораживающе. Вот вы, вы и ваша машина, отраженные в зеркальном отражении кузова автоцистерны.

Сядьте за сумасшедший поворот.

Беспилотный автомобиль приближается к автоцистерне. Камеры фиксируют изображение автомобиля, которое отображается в зеркальном отражении. Ого, оценивает ИИ, это машина? Это приближается к беспилотному автомобилю? По мере того, как беспилотный автомобиль приближается к автоцистерне, кажется, что автомобиль становится все ближе и ближе.

Да, ИИ вычислил, что это опасная ситуация, и ИИ должен предпринять действия по уклонению от этого сумасшедшего мошеннического транспортного средства. Видите ли, ИИ не узнал себя в зеркале. Он провалил зеркальный тест.

Что делать? Возможно, двойная проверка ИИ, обладающая самосознанием, вмешивается в дело и убеждает остальную часть управляющей системы ИИ, что это всего лишь безобидное отражение. Опасность предотвращена. Мир спасен. Успешное прохождение AI Mirror Test!

Делая ироничный вывод, мы могли бы даже предположить, что иногда ИИ умнее или, по крайней мере, более самосознателен, чем средний медведь (хотя, к чести медведей, они обычно хорошо справляются с зеркальным тестом, часто получая привыкшие к их отражению в бассейнах с водой).

Поправка, возможно, ИИ может быть более самосознательным, чем гигантские панды и морские львы, но не говорите об этом животным, у них может возникнуть соблазн разбить или разбить системы ИИ. Мы не хотим этого, не так ли?

Источник: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/