Этика искусственного интеллекта возмущена последним изобретением Китая. Подтверждение распознавания лиц, основанное на лояльности к партиям, может предвещать деспотические автономные системы

Вы верны?

Теоретически можно было бы изучить ваши явные поступки и выяснить, демонстрируют ли ваши действия лояльность.

Предположим, однако, что вместо этого была предпринята попытка прочитать ваши мысли и тем временем просканировать ваше лицо, чтобы определить ваш коэффициент лояльности. Это жутко навязчиво; вы могли бы легко порицать. Звучит как один из тех сумасшедших научно-фантастических фильмов, которые рисуют антиутопическое общество будущего.

К счастью, шепчешь ты себе под нос, у нас сегодня ничего подобного нет.

Эй, придержи лошадей.

Заголовки новостей недавно кричали о том, что в исследовательской статье, опубликованной в Китае 1 июля 2022 года, описывается исследование, которое предположительно включало оценку мозговых волн и выражений лица людей с целью определения их лояльности к Коммунистической партии Китая (КПК). . Итак, вот оно, будущее становится все ближе и ближе, по крайней мере, с точки зрения достижения антиутопического общества, которое, как мы боялись, может когда-нибудь возникнуть.

Исследовательская работа быстро исчезла из ссылки, опубликованной в Интернете.

Предположительно, стремительного презрения, быстро прокатившегося по Интернету, было достаточно, чтобы газету сняли. Или, может быть, исследователи просто хотят внести несколько изменений в формулировки и другие безобидные исправления, стремясь сделать репост после того, как у них будет более тщательный шанс убедиться, что все точки над «i» и все «t» перечеркнуты. Нам придется держать ухо востро, чтобы увидеть, получит ли газета вторую жизнь.

Я собираюсь пойти дальше и глубоко погрузиться в то, что мы знаем об исследовании, и попытаться соединить точки о том, как такая работа, связанная с ИИ, имеет значение для всех нас, выходя далеко за рамки видения этого. как ограниченный одной конкретной страной. Мое освещение будет немного более обширным, чем другие недавние репортажи об этом важном для печати предмете, поэтому, пожалуйста, потерпите меня.

Я также хочу подчеркнуть, что существует множество жизненно важных уроков по этике ИИ, которые мы можем почерпнуть из предполагаемой статьи. Мой постоянный и обширный обзор этики ИИ и этического ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Вот что до сих пор упоминалось об исследовании.

Судя по всему, некоторые «добровольцы» были завербованы для участия в эксперименте относительно восприятия КПК. Неизвестно, были ли они добровольцами или больше похожими на подстрекаемых или, может быть, управляемых добровольцев. Мы предположим для обсуждения, что они согласились стать предметом исследования.

Я поднимаю это, чтобы не просто быть хитрым. Всякий раз, когда проводится эксперимент с участием людей, существует множество общепринятых практик, касающихся вербовки и вовлечения таких субъектов в исследовательскую работу. Это частично восходит к предыдущим исследованиям, которые часто обманывали или заставляли людей участвовать в эксперименте, что иногда приводило к неблагоприятным психологическим последствиям или даже к физическому вреду для этих участников. Научное сообщество изо всех сил пыталось пресечь подобные коварные исследования и требует, чтобы все виды раскрытия информации и предупреждений были предоставлены тем, кто хочет быть включенным в исследования, связанные с людьми.

Чтобы уточнить, не все соблюдают такие разумные и добросовестные руководящие принципы.

Далее, по сообщениям, было 43 субъекта, и они, как утверждается, были членами Коммунистической партии Китая. Имейте в виду, что выбор испытуемых для эксперимента очень важен для эксперимента, а также должен учитываться в отношении любых выводов, которые вы можете попытаться сделать впоследствии о результатах эксперимента.

Предположим, я хочу провести эксперимент о том, как люди воспринимают нашумевший сериал «Звездные войны». Если я заранее выберу субъектов, которые все безоговорочно ненавидят «Звездные войны» (как такие люди могут существовать?), и покажу им видеоклипы «Звездных войн», скорее всего, они скажут, что по-прежнему не любят «Звездные войны». Основываясь на этом псевдонаучном эксперименте, я, возможно, исподтишка утверждаю, что люди — в целом — действительно ненавидят «Звездные войны», что было «доказано» (подмигнул) в моем «тщательно» подготовленном исследовательском сеттинге.

Возможно, вы не знаете, что я, так сказать, сфальсифицировал колесо рулетки, предварительно выбрав предметы, которые, как я ожидал, приведут к тайно желаемым результатам. Конечно, если бы я вместо этого намеренно нанял людей, которые любили «Звездные войны» и были ярыми фанатами, скорее всего, они сообщили бы, что были в восторге от просмотра этих клипов «Звездных войн». Опять же, любые выводы о том, как люди в целом реагируют на «Звездные войны», будут зависеть от заранее выбранного набора предметов, выбранных для исследования.

В исследовании, ориентированном на КПК, испытуемые, по-видимому, сидели перед видеоэкраном, похожим на киоск, и читали различные статьи о политике и достижениях КПК. Вероятно, это считается «экспериментальным лечением», которому подвергаются субъекты. При планировании эксперимента вы обычно придумываете экспериментальный фактор или аспект, который хотите увидеть, повлияет ли он на участников.

Исследовательский вопрос, который, по-видимому, изучался, заключался в том, окажет ли акт просмотра этих материалов какое-либо влияние на испытуемых с точки зрения увеличения, уменьшения или нейтральности в отношении их последующих впечатлений от КПК.

В классической нулевой гипотезе вы можете организовать такое исследование, чтобы констатировать, что потребляемые материалы не влияют на последующие впечатления, выраженные субъектами. После того, как вы сравните их точки зрения на КПК до и после, вы попытаетесь статистически определить, было ли выявлено статистически значимое изменение в их впечатлениях.

Может случиться так, что до и после статистически не отличаются, поэтому вы можете разумно сделать предварительный вывод, что для этого конкретного исследования представленные материалы (экспериментальная обработка), похоже, не повлияли на их впечатления. С другой стороны, если бы была статистически достоверная разница, вы бы посмотрели, было ли после этого больше, чем до, что позволило бы вам осторожно предположить, что материалы усилили их впечатления (и, с другой стороны медали, если после было меньше, чем до, это может означать, что материалы уменьшили или уменьшили их впечатления).

В таком исследовании необходимо разобраться со многими нерешенными вопросами.

Например, мы обычно хотим иметь так называемую контрольную группу, которую мы можем сравнить с теми, кто получает экспериментальное лечение. Вот почему. Предположим, что факт сидения перед киоском для чтения материалов был истинной причиной изменения впечатлений. Возможно, природа потребляемых материалов практически не имеет значения для впечатления. Просто сидеть и читать что-нибудь, например, последние истории о кошках, которые делают забавные вещи, в одиночку может помочь. Поэтому мы можем договориться о том, чтобы несколько испытуемых вошли в нашу контрольную группу, которой были представлены для чтения какие-то другие материалы, отличные от политик КПК и материалов о достижениях.

Мы не знаем, было ли это сделано в данном случае (похоже, никто еще не упомянул об этом аспекте).

Я понимаю, что вы уже начинаете нервничать из-за взрывоопасной части исследования со стороны СМИ. Мы быстро перейдем к этой части.

Как мы можем определить, отреагировали ли испытуемые в этом эксперименте на свои впечатления или изменили их в результате чтения демонстрируемых материалов?

Обычным средством было бы спросить их.

Возможно, вы заранее раздали бы им анкету, в которой спрашивали их впечатления о КПК. Затем, после воздействия экспериментального лечения, как при чтении выставленных материалов, мы могли бы ввести еще один вопросник. Затем можно сравнить ответы, данные субъектами до и после. Если бы мы также использовали контрольную группу, мы бы предположили, что ответы контрольной группы существенно не изменились бы от «до» к «после» (при убеждении, что просмотр историй о резвящихся кошках не должен влиять на их впечатления от КПК).

Этот акт опроса испытуемых об их впечатлениях не обязательно так прост, как может показаться.

Предположим, что испытуемые в эксперименте почувствовали, что вы хотите, чтобы они определенным образом реагировали на экспериментальное воздействие. В этом случае они могут намеренно преувеличивать свои реакции в конце экспериментального введения. Вы наверняка видели, как это происходит. Если я провожу дегустацию новой газировки, поступающей на рынок, я могу вести себя так, будто мне безумно нравится газировка, делая это в надежде, что меня увидят в рекламе производителя газировки и я получу заслуженные пятнадцать минут славы. .

Суть в том, что просто спросить людей об их мнении — не верный способ оценить изменения. Это один подход. Могут применяться и другие подходы, которые также часто применяются.

Как это конкретное исследование решило оценить реакцию испытуемых?

По-видимому, использовались как минимум два метода. Один из методов заключался в сканировании лица и использовании программного обеспечения для распознавания лиц на основе искусственного интеллекта для оценки реакции испытуемых. Сообщается, что другим методом было сканирование мозговых волн. Пока не сообщается, какой тип устройств сканирования мозговых волн использовался, а также какое программное обеспечение для анализа мозговых волн на основе ИИ использовалось.

В различных сообщениях указывалось, что в исследовании говорилось о характере эксперимента: «С одной стороны, оно может судить о том, насколько члены партии восприняли мысли и политическое образование». И в исследовании якобы тоже упоминалось об этом: «С другой стороны, оно даст реальные данные для мысли и политического образования, чтобы его можно было улучшить и обогатить». Исследование было приписано тому, что оно проводилось под эгидой Китайского комплексного национального научного центра Хэфэй.

Сообщения СМИ предполагают, что исследование ссылалось на утверждение о том, что сканирование с распознаванием лиц и сканирование мозговых волн смогли помочь в обнаружении того, что последующее впечатление о КПК было усилено.

Я хотел бы отметить для вас, что, не имея возможности непосредственно просмотреть используемые системы и внимательно изучить исследовательскую работу, мы не знаем подробностей того, как именно использовались эти системы на основе ИИ.

Возможно, испытуемые реагировали на экспериментальную обстановку, а не на экспериментальное лечение. Любой, кто участвует в исследовании, может с самого начала испытывать тревогу. Это может помешать любым попыткам провести сканирование мозговых волн или анализ черт лица. Существует также вероятность того, что они почувствовали мотивацию угодить исследователям, предпочитая придумывать позитивные мысли после просмотра материалов, и это теоретически может быть отражено в сканировании мозговых волн и сканировании лица (возможно, хотя, пожалуйста, знайте, что существует большое страстных споров по поводу обоснованности таких утверждений, что я сейчас поясню), в надежде исказить результаты и показать, что на них повлияло положительное влияние.

Реакция Твиттера в значительной степени осудила саму идею использования сканирования мозговых волн с помощью ИИ и распознавания лиц, что само по себе является ужасающим и возмутительным актом. Только человеческие монстры могут использовать такие устройства, как нам говорят некоторые из этих твитов.

Я должен попросить вас сесть и приготовиться к чему-то, что может оказаться грубым и шокирующим сюрпризом.

Во всем мире есть много исследователей, которые используют такие же технологии в своих исследованиях. Это, конечно, не первый случай, когда возможность сканирования мозговых волн использовалась на людях в ходе исследований. Это также был не первый случай, когда распознавание лиц использовалось на людях в экспериментальных целях. Даже беглый онлайн-поиск покажет вам множество экспериментальных исследований во всех странах и лабораториях, которые использовали устройства такого типа.

Теперь, как говорится, использование их для оценки лояльности к КПК — это не то, чему вы уделяете особое внимание. Когда такой ИИ используется для государственного контроля, как говорится, красная черта перейдена.

Это явно пугающая часть всего комплекта и всей этой чепухи.

Многие выражают обеспокоенность тем, что, если правительства решат использовать технологии сканирования мозговых волн и распознавания лиц, чтобы убедиться в лояльности существующим режимам, мы окажемся в антиутопическом мире боли. Когда вы идете по общественной улице, может случиться так, что устройство, установленное на фонарном столбе, тайно определит ваш коэффициент лояльности.

Можно предположить, что если ваше лицо, кажется, не предполагает, что вы достаточно лояльны, или если сканирование мозговых волн показывает то же самое, правительственные головорезы могут внезапно броситься и схватить вас. нервирует. Бездонный. Нельзя допускать.

Вот в чем суть того, почему заголовок вызвал возмущение и возмущение в связи с этим новостным сообщением.

Представьте это. Возможно, мы создадим, а затем введем в действие компьютерные системы, использующие новейшие технологии искусственного интеллекта, чтобы решить, лояльны мы или нет. Если бы вы попытались нанять людей, чтобы они сидели и делали то же самое, вам потребовалось бы много людей, и у вас возникла бы проблема с логистикой, пытаясь разместить их так, чтобы они видели всех. В случае системы на основе ИИ все, что вам нужно сделать, это установить электронные устройства на фонарных столбах, стенах зданий и так далее. Сканирование на лояльность может происходить 24 часа в сутки, 7 дней в неделю, во всех оборудованных местах. Затем это может быть загружено в массивную базу данных.

Мы становимся людьми, которые являются простыми винтиками в колоссальной всевидящей, всенаблюдающей, угнетающей социальной экосистеме. Видящее око не просто наблюдает за тем, что мы делаем. Это также интерпретирует то, что наши лица говорят о нашей лояльности правительству. Наши умы также должны быть исследованы по той же самой ужасной причине.

Хлоп!

Отсюда вытекает и второстепенная проблема, хотя, возможно, не такая острая по сравнению с последствиями Большого Брата, как уже было обрисовано.

Подумайте над этими двумя насущными вопросами:

  • Можем ли мы достоверно утверждать, что сканирование мозговых волн может подтвердить вашу лояльность?
  • Можем ли мы с уверенностью утверждать, что сканирование с распознаванием лиц может подтвердить вашу лояльность?

Подожди, может быть, ты кричишь во все горло.

Я понимаю и признаю, что вы можете не так сильно заботиться об аспектах надежности как таковых. То, можно ли это сделать надежно, менее важно, чем тот факт, что это делается вообще. Никто не должен находиться под таким пристальным вниманием. Забудьте о том, подходит ли технология для этой задачи. Мы не должны браться за дело с самого начала.

В любом случае, ответ прямо сейчас — решительное «нет», а именно, что существующие системы ИИ, которые выполняют какое-либо подобие «сканирования мозговых волн» и распознавания лиц, недостаточно способны совершить такой скачок.

Возможно, в последнее время вы заметили, что некоторые производители систем распознавания лиц несколько отступили от того, как используются их системы распознавания лиц. В следующей публикации я буду обсуждать недавние попытки, например, Microsoft попытаться остановить поток тех, кто использует предоставленные Microsoft инструменты распознавания лиц для целей, выходящих далеко за рамки того, для чего технология может или должна использоваться. . Возможно, вам будет интересен мой более ранний взгляд на опасения этики ИИ, которые уже получили широкую огласку в связи с распознаванием лиц, см. ссылка здесь. Я также обсуждал область сканирования мозговых волн, см. мое обсуждение на ссылка здесь.

Короче говоря, пока нет надежных или разумных способов предположить, что сканирование мозговых волн или сканирование с распознаванием лиц может отражать чью-то лояльность. Даже предположительно базовые аспекты, такие как, можете ли вы надежно соотнести эти сканы с тем, счастлив ли кто-то или грустен, все еще являются предметом горячих споров. Попытка повысить ставку до чего-то столь аморфного и изменчивого, как лояльность, — это слишком далеко.

Я мог бы добавить, что некоторые горячо верят, что мы в конце концов доберемся до этого. Вот почему я осторожно попытался отметить, что мы еще не достигли этого, а не заявить, что мы никогда не достигнем этого. Никогда — это громко сказано. Вы должны быть абсолютно уверены, что если вы собираетесь метаться, то это будет никогда быть осуществимым (имея в виду, что «никогда» включает в себя десятилетия, прошедшие столетия, а также тысячи или миллионы лет).

Некоторые отреагировали на новость об этом китайском лабораторном исследовании как на показатель того, насколько опасно мир склоняется к неуместному и опасному использованию ИИ. Я кратко поделюсь с вами тем, что такое этика ИИ. Это поможет вам более наглядно увидеть, почему это конкретное исследование нарушает многие, если не почти все общепринятые принципы этического ИИ.

Хотите верьте, хотите нет, но некоторые предположили, что, возможно, мы делаем из мухи слона в отношении этого конкретного исследования.

Мы?

Контраргумент состоит в том, что кротовина достаточно скоро может превратиться в гору. Согласно общеизвестному представлению о снежном коме, который становится все больше и больше по мере того, как он катится по снежному холму, нам нужно остановить снежный ком. Если мы будем мириться с такими исследованиями, мы позволим этому снежному кому начать свое путешествие. Высказываясь и призывая к таким исследованиям, возможно, мы сможем предотвратить снежный ком.

Одно можно сказать наверняка: мы находимся на грани открытия ящика Пандоры, когда дело доходит до аспектов ИИ, и остается вопрос, можем ли мы предотвратить открытие ящика или, по крайней мере, найти какие-то средства, чтобы разумно справиться с тем, что выходит наружу. как только коробка высвободит свое дьявольское содержимое.

Будем надеяться, что такие бури в СМИ вызовут широкую дискуссию о том, как мы собираемся предотвращать злодеяния, связанные с ИИ, и предотвращать многочисленные экзистенциальные риски, вызванные ИИ. Нам нужно поднять нашу общественную осведомленность об этике ИИ и этических соображениях ИИ.

Прежде чем перейти к еще большему количеству мяса и картошки о диких и необъяснимых соображениях, лежащих в основе таких систем ИИ, давайте установим некоторые дополнительные основы по очень важным темам. Нам нужно кратко окунуться в этику ИИ и особенно в появление машинного обучения (МО) и глубокого обучения (ГО).

Возможно, вы смутно осознаете, что один из самых громких голосов в наши дни в области ИИ и даже за его пределами состоит в том, чтобы требовать большего подобия этического ИИ. Давайте посмотрим, что означает обращение к этике ИИ и этичному ИИ. Кроме того, мы рассмотрим, что я имею в виду, когда говорю о машинном обучении и глубоком обучении.

Один конкретный сегмент или часть этики ИИ, которая привлекает большое внимание средств массовой информации, состоит из ИИ, который демонстрирует неблагоприятные предубеждения и несправедливость. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в неэтичную пропасть (см. мой анализ таких возможностей на ссылка здесь).

Через мгновение я поделюсь с вами некоторыми всеобъемлющими принципами, лежащими в основе этики ИИ. Есть много таких списков, плавающих то здесь, то там. Можно сказать, что единого списка универсальной привлекательности и согласованности пока не существует. Это неприятная новость. Хорошая новость заключается в том, что, по крайней мере, существуют легкодоступные списки этики ИИ, и они, как правило, очень похожи. Все это говорит о том, что с помощью своего рода обоснованной конвергенции мы находим путь к общей общности того, из чего состоит этика ИИ.

Во-первых, давайте кратко рассмотрим некоторые из общих этических принципов ИИ, чтобы проиллюстрировать, что должно быть жизненно важным соображением для любого, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологий, процессов разработки и методов работы, применимых к возможностям ИИ, включая прозрачные и проверяемые методологии, источники данных, процедуры проектирования и документацию.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как указывалось ранее, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна разбираться в принципах этики ИИ и соблюдать их.

Давайте также убедимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели дико рассуждать о чувствующий AI, эта дискуссия может пойти в совершенно ином направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхразумный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Давайте будем более приземленными и рассмотрим современный вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Давайте вернемся к нашему вниманию к системам ИИ, которые используются для неуместных или, возможно, откровенно противоправных целей, и к тому, как это связано с недавно опубликованным исследованием лояльности КПК.

На ум приходят два основных соображения:

1) Этот экземпляр ИИ является частью более крупной продолжающейся модели сбивающего с толку использования ИИ и, следовательно, зловещего и открывающего глаза на то, что происходит.

2) Кошку можно выпустить из мешка, чтобы, если подобный ИИ был принят в одной стране, его можно было бы легко распространить и на другие страны.

Начните с первого пункта о том, что этот экземпляр ИИ является частью продолжающегося паттерна.

Одна особенно важная причина для того, чтобы быть особенно обеспокоенным этим конкретным исследованием, заключается в том, что оно является частью более широкой модели того, как некоторые стремятся использовать ИИ. Если бы это было единственным подобным исследованием, которое когда-либо проводилось, оно могло бы нас слегка взволновать. Тем не менее, это, вероятно, не вызвало бы такого пыла, как мы сейчас видим.

Возможно, это капля-кап медленного движения к чему-то, что вот-вот выйдет из-под контроля.

Как сообщалось в новостях, Китай известен тем, что настаивал на безудержной лояльности КПК. Кроме того, были созданы или создаются различные средства для обеспечения того, чтобы люди были внушены государственной доктрине. Приводились примеры предыдущих исследований, направленных на разработку алгоритмов ИИ, которые могли бы измерять мыслительные состояния членов партии (см. Study Times в 2019 году, в котором упоминались эти усилия).

Возможно, вы помните, что в 2018 году вице-президент Майк Пенс выступил с речью в Гудзоновском институте и подчеркнул, что «китайские правители стремятся внедрить оруэлловскую систему, основанную на контроле практически всех аспектов человеческой жизни» (это была ссылка на реализацию КПК система социального кредитного скоринга, предмет выдающихся споров). Вы можете легко утверждать, что это недавнее исследование CCP является еще одним шагом в этом направлении.

Мы не знаем, когда последняя соломинка сломает хребет верблюду, так что эти разовые исследования превращаются в широко распространенные системы мониторинга на основе ИИ.

Второй момент, на который стоит обратить внимание, заключается в том, что мы не можем предполагать, что этот тип ИИ будет ограничен только Китаем. По сути, хотя такое широкое распространение ИИ в Китае само по себе вызывает тревогу, другие страны могут поступить так же.

Как только будет объявлено, что ИИ для этого будет готов в прайм-тайм, другим странам, вероятно, не потребуется много времени, чтобы решить, что они тоже хотят его внедрить. Кот будет из мешка. Некоторые страны, по-видимому, будут использовать этот ИИ откровенно репрессивными способами и не будут пытаться выдвигать какие-либо претензии по этому поводу. Другие страны, по-видимому, могут попытаться использовать этот тип ИИ для целей, которые кажутся полезными, но в конечном итоге есть обратная сторона, которая почти неизбежна.

На самом деле, предположение о том, что этот тип ИИ, возможно, будет принят только после того, как будет сочтено, что он готов к прайм-тайму, является немного неправильным. Возможно, не имеет никакого значения, может ли ИИ работать таким образом. ИИ можно использовать в качестве прикрытия, см. мое объяснение на ссылка здесь. Независимо от того, что на самом деле может сделать ИИ, идея состоит в том, что ИИ может быть удобным предлогом для осуществления мониторинга населения и схем оценки и обеспечения абсолютной лояльности властям.

Могу поспорить, что на данном этапе этой серьезной дискуссии вам нужны наглядные примеры, которые могли бы продемонстрировать эту тему. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей что-нибудь о неправильном использовании ИИ, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Самоуправляемые автомобили и неправильное использование ИИ

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я надеюсь, что это дает достаточное количество предостережений, чтобы обосновать то, что я собираюсь рассказать.

Давайте набросаем сценарий беспилотного автомобиля, в котором искусственный интеллект может использоваться поверхностно или неправомерно.

Я собираюсь поделиться с вами некоторыми разветвлениями беспилотных автомобилей на основе ИИ, которые могут вызвать у вас дрожь и беспокойство. Это аспекты, которые сейчас почти никто не обсуждает. Я неоднократно поднимал этот вопрос, хотя и открыто признаю, что до тех пор, пока у нас не будет повсеместного внедрения беспилотных автомобилей, мы не получим большой поддержки, поскольку общество будет беспокоиться или расстраиваться из-за того, что сегодня кажется просто абстрактными понятиями. .

Готовы ли вы?

Начнем с закладки фундамента.

Самоуправляемые автомобили на основе искусственного интеллекта будут оснащены видеокамерами, и это разумно. Это позволяет беспилотному автомобилю получать видеоизображение сцены вождения. В свою очередь, система управления ИИ, работающая на компьютерах беспилотного автомобиля, предназначена для вычислительного анализа собранного видео и определения, где находится дорога, где находятся близлежащие автомобили, где находятся пешеходы и так далее. Я понимаю, что повторяю основы беспилотных автомобилей 101.

На внешней стороне автономного транспортного средства установлены видеокамеры, направленные наружу. Кроме того, по большому счету можно ожидать, что на транспортном средстве или внутри него будут установлены видеокамеры, направленные внутрь, внутрь беспилотного автомобиля. Почему так? Легко, потому что будет много важных применений для видеосъемки того, что происходит внутри автономного транспортного средства.

Когда вы отправляетесь в поездку на беспилотном автомобиле, вам больше не нужно быть водителем. Что вы будете делать в беспилотном автомобиле?

Одна вещь, которую вы могли бы сделать, это общаться с другими людьми дома или в офисе. Вот вы и едете на работу, что потребует часа езды на беспилотном автомобиле, и вы уже можете начать свой рабочий день, выполняя онлайн-интерактивный сеанс в режиме реального времени в стиле Zoom. Они могут видеть вас благодаря камерам, направленным внутрь беспилотного автомобиля. Вы можете увидеть их, возможно, на светодиодном экране внутри беспилотного автомобиля. В конце дня, возвращаясь домой, вы можете провести подобное интерактивное видео-обсуждение со своими детьми, когда они начинают делать домашнее задание на вечер.

Другое использование было бы для занятий. Теперь, когда вам не нужно тратить время на вождение, вы можете превратить это безвыходное время в беспилотном автомобиле в улучшение своих навыков или получение сертификата или степени. С помощью камер, направленных внутрь, ваш инструктор может видеть вас и обсуждать, как продвигается ваше обучение.

Еще одно применение — попытаться гарантировать, что водители беспилотных автомобилей не сойдут с ума. В машине, управляемой человеком, водитель — это взрослое существо, которое обычно удерживает гонщиков от таких глупых вещей, как разметка салона граффити. Что будет с беспилотными автомобилями на базе искусственного интеллекта? Некоторые опасаются, что гонщики решат разорвать салон автомобиля. Чтобы попытаться предотвратить это, компания по совместному использованию автомобилей, которая внедряет беспилотные автомобили, скорее всего, будет использовать обращенные внутрь видеокамеры для наблюдения за тем, что люди делают внутри автономного транспортного средства.

Я предполагаю, что вы убеждены, что у нас будут видеокамеры, направленные внутрь беспилотных автомобилей, в дополнение к камерам, направленным наружу, чтобы различать сцену вождения.

Теперь вы готовы к тому, что я назвал блуждающим глазом, см. мой анализ на ссылка здесь.

Во-первых, рассмотрим видеокамеры, которые направлены наружу.

Куда бы ни поехал беспилотный автомобиль, он потенциально сможет записывать на видео все, что видят камеры. Беспилотный автомобиль, который подвозит кого-то из дома и отвозит в продуктовый магазин, будет пересекать район, и видео будет записывать не только проезжую часть, но и все остальное, что происходит в поле зрения. Отец и сын играют во дворе. Семья сидит на крыльце. Это продолжается и продолжается.

Прямо сейчас у нас так мало беспилотных автомобилей на дорогах общего пользования, что возможность снимать видео о повседневной деятельности относительно скудна и несущественна.

Представьте себе, что в конечном итоге мы добьемся безопасных и широко распространенных беспилотных автомобилей. Тысячи из них. Может миллионы. Сегодня в США насчитывается около 250 миллионов автомобилей, управляемых людьми. В конце концов, они будут в значительной степени заменены беспилотными автомобилями или просто больше не будут использоваться, и на наших дорогах будут преимущественно беспилотные автомобили. Эти беспилотные автомобили управляются искусственным интеллектом и поэтому могут передвигаться практически круглосуточно и без выходных. Без перерывов на отдых, без перерывов на туалет.

Видеоданные могут быть загружены из этих беспилотных автомобилей через электронные сетевые соединения OTA (Over-The-Air). Беспилотные автомобили будут использовать OTA для загрузки последних обновлений программного обеспечения ИИ в автомобиль. Кроме того, OTA можно использовать для загрузки данных из беспилотного автомобиля в облачную базу данных.

В общем, было бы возможно сшить вместе эти загруженные данные. С помощью сшивки вы потенциально могли собрать воедино ежедневные приезды и отъезды любого, кто выходил на улицу в любой день в любом месте, где широко использовались беспилотные автомобили.

Это блуждающий глаз, о котором я предупреждал.

Теперь мы можем увязать исследование CCP с такого рода возможностями. Предположим, что правительство имеет доступ ко всем этим собранным видеоданным. Затем они могли бы использовать алгоритм распознавания лиц на основе искусственного интеллекта, чтобы выяснить, куда вы ходили, в какое время суток, на протяжении своих ежедневных путешествий по жизни. Кроме того, они, вероятно, могли бы использовать свой анализатор «лояльности» на основе ИИ, чтобы увидеть, лояльно ли вы смотрите на свое лицо или нет.

Только представьте, что во вторник днем ​​вы идете за бутербродом в местную закусочную. По проезжей части проезжали беспилотные автомобили. Все многочисленные видео запечатлели вас, когда вы совершали пятиминутную прогулку, чтобы перекусить. Данные были загружены в централизованную базу данных. Правительство запустило свою программу распознавания лиц ИИ на основе данных.

Оказывается, ИИ «определил», что у вас нелояльное выражение лица.

Может быть, этот неверный взгляд случился лишь на мгновение. Вы ждали на углу улицы, пока не загорится свет, чтобы перейти улицу к закусочной. В этот момент у вас было легкое подергивание от отвращения к тому, что вам пришлось слишком долго ждать символа ходьбы. Может быть, это свидетельство вашей нелояльности к правительству?

Да, вычисленный ИИ вычислил, вы были в высшей степени нелояльны в тот момент времени. Когда ты вернешься домой той ночью, правительство устроит твой арест.

Но подождите, это еще не все.

Помните, что видеокамеры тоже направлены внутрь.

В тот же вторник, когда вы ехали на работу на беспилотном автомобиле, видеокамеры ловили каждое ваше мгновение. Это было загружено в централизованную базу данных. Программное обеспечение искусственного интеллекта, которое анализирует паттерны лиц на предмет нелояльности, провело вычислительную проверку мимики вашего лица во время поездки в офис.

В какой-то момент вы небрежно смотрели за пределы беспилотного автомобиля и заметили строителя, который частично блокировал проезжую часть и заставил систему вождения ИИ замедлить беспилотный автомобиль. На долю секунды на твоем лице появилось выражение насмешки над этим строителем, замедляющим движение.

Анализ лица ИИ интерпретировал это как признак нелояльности правительству.

Два удара по тебе за один день.

Вы живете на тонком льду.

Конечно, «прав» или «неправ» ИИ в том, что он может определить вашу лояльность, в данном контексте почти не имеет значения. Суть в том, что для этой цели был создан ИИ. Людей, развертывающих ИИ, может волновать, а может и не заботить, подходит ли ИИ для такого типа задач. ИИ допускает государственный контроль, независимо от самой технологической обоснованности.

Это охватывает сканирование лица.

Если у нас в конечном итоге появятся какие-либо портативные экономичные устройства для (предполагаемого) сканирования мозговых волн, они, безусловно, также могут быть включены в беспилотные автомобили. Видеокамеры — это верная вещь сейчас. Возможность иметь устройства для сканирования мозговых волн такого калибра пока не обсуждается, но очевидно, что это то, что предполагается в будущем.

О моем исследовании того, как правительство может попытаться захватить власть над населением, захватив контроль над беспилотными автомобилями, см. ссылка здесь. Существует аналогичная возможность того, что злоумышленник может попытаться сделать то же самое, см. ссылка здесь. Это не должно быть тактикой запугивания в отношении освещения связанных тем, а вместо этого предупреждение о важности кибербезопасности и других мер предосторожности, которые мы, как общество, должны стремиться принять в связи с появлением вездесущих беспилотных автомобилей и другие автономные транспортные средства.

Заключение

Я хотел бы быстро осветить еще один аспект использования ИИ для определения лояльности, который, как мне кажется, является несколько отдельной темой, но о ней говорят в некоторых твитах и ​​социальных сетях.

Ранее я упоминал, что у нас нет разумного ИИ, и мы не знаем, когда он появится. Давайте подумаем, что у нас будет разумный ИИ. В этом случае рассмотрим следующий сценарий.

Мы с помощью неразумного ИИ решили внедрить широкое использование ИИ, который вычисляет, лояльны ли люди своему правительству, используя сканирование лица, сканирование мозговых волн и так далее. Это полностью управляется и используется авторитетными людьми. Это тревожный сценарий, который я только что описывал ранее.

Время повышать ставки.

ИИ становится разумным. Теперь мы потенциально передали этому разумному ИИ широко распространенную способность предположительно определять лояльность и нелояльность людей. Злодейский ИИ, который рассматривает возможность уничтожения людей, может использовать эту возможность, чтобы решить, что люди действительно будут нелояльными и должны быть полностью уничтожены. Или, может быть, только те люди, которые демонстрируют признаки нелояльности своим лицом или своими мыслями, должны быть особенно утилизированы.

Другая точка зрения заключается в том, что ИИ хочет поработить людей, см. мое обсуждение на ссылка здесь.

Казалось бы, мы преподнесли ИИ идеальный подарок для выполнения этого квеста. Существующая инфраструктура, которую мы создали, позволяет ИИ внимательно следить за нами, людьми. Те, кто, кажется, выразил нелояльное выражение лица или подумал о повелителях ИИ, почувствуют гнев ИИ.

Я понимаю, что я сказал, что это повышение ставки. Я не уверен, что это так. Мне кажется, что если у нас есть повелители ИИ, напрямую решающие нашу судьбу, по сравнению с повелителями людей, которые, возможно, используют систему ИИ для определения лояльности, ни одно из предложений не кажется особенно желательным.

Последний комментарий.

Римский ученый и философ Марк Туллий Цицерон утверждал, что нет ничего более благородного, ничего более почитаемого, чем верность. Возможно, мы позволим ИИ опередить нас и стать инструментом для вербовки и обеспечения «лояльности» ужасными средствами.

Достойная веская причина поставить этику ИИ на первое место в нашем списке дел.

Источник: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- аттестация-которая-может-предвещать-депрессивные-автономные-системы/