Этика ИИ резко ставит под сомнение клонирование человеческого голоса, например голоса ваших умерших родственников, предназначенное для использования в автономных системах ИИ

Упс, казалось бы, изящная часть новой технологии завела себя и своего создателя в неприятную ситуацию.

Я имею в виду появление клонирования человеческого голоса на основе искусственного интеллекта как новую технологию, которая в последнее время попала в заголовки новостей. В данном случае это Amazon и ее постоянно развивающаяся Alexa.

Читатели моей колонки, возможно, помнят, что я ранее освещал непристойную ерунду, которая произошла, когда стало известно, что Алекса подтолкнула подростка положить монету в электрическую розетку (не делайте этого!), см. мой репортаж на ссылка здесь. В этом случае, к счастью, никто не пострадал, и последствия заключались в том, что, по-видимому, система искусственного интеллекта Alexa уловила предыдущую вирусную тенденцию и без какого-либо подобия оценки здравого смысла просто повторила сумасшедшее предложение, когда его попросили сделать что-нибудь веселое. ребенок, взаимодействующий с Alexa. Это подчеркивает обеспокоенность этики ИИ тем, что нас наводняют ИИ, в котором полностью отсутствует какое-либо подобие рассуждений, основанных на здравом смысле. усилия см. ссылка здесь).

Последняя заминка включает в себя клонирование голоса, также известное как репликация голоса. Новейшие достижения в области таких технологий и ИИ вызывают насущные вопросы этики ИИ и этического ИИ. Для моего постоянного всеобъемлющего освещения этики ИИ и этического ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Клонирование голоса на основе ИИ — простая концепция.

Система искусственного интеллекта запрограммирована на аудиозапись некоторых произнесенных вами слов. Затем ИИ пытается вычислить ваши речевые паттерны с помощью вычислений. На основе обнаруженных речевых паттернов ИИ затем пытается воспроизвести звуковую речь, которая звучит так же, как вы. Сложность заключается в том, что речь охватывает слова, которые вы ранее не предоставили ИИ в виде аудиосэмплов. Другими словами, ИИ должен математически оценить, как вы могли бы произнести слова. Сюда входят все характеристики речи, такие как тон, повышение и понижение голоса, темп или скорость речи и так далее.

Когда вы слышите, как человек пытается выдать себя за другого человека, вы обычно можете понять, что это попытка подражания. В краткосрочной перспективе, например, если имитатор использует всего несколько слов, может быть трудно понять, что голос не принадлежит первоначальному говорящему. Кроме того, если имитатор имитирует слова, которые на самом деле произнес первоначальный говорящий, есть вероятность, что он может настроить свой голос на голос другого человека в большей степени для этого конкретного высказывания.

Краткость и прослушивание одних и тех же слов могут позволить кому-то в значительной степени изобразить подражание.

Задача состоит в том, чтобы прикрыть слова, которые другой человек не говорил или которые имитатор никогда не слышал, чтобы человек произносил эти конкретные слова. Вы несколько в неведении, пытаясь понять, как имитированный человек сказал бы эти слова. Хорошей новостью является то, что если кто-либо еще, слушающий подражателя, также не знает, как бы сказал первоначальный человек, подражатель может быть относительно далек от истинного голоса, но все же выглядеть щеголем и метко.

Я также хотел бы на мгновение исключить из уравнения манеры и физические движения олицетворения. Увидев имитатора, вы можете быть поражены, если он может сморщить лицо или размахивать руками, что также имитирует человека, которого выдают за него. Дополнительные сигналы тела и лица обманут ваш разум, заставив думать, что голос тоже точен, даже если это может быть не так. Сторонник олицетворения голоса будет настаивать на том, что только голос должен использоваться в качестве критерия для определения того, точно ли голос имитирует олицетворяемого человека.

Вы, конечно, видели различные дипфейковые видео, которые сейчас распространяются в социальных сетях. Кто-то ловко переделывает видео, чтобы в видео появилось чье-то лицо, накладывая лицо, которое было на исходной записи. Обычно это также сопровождается дипфейком голоса. Вы получаете двойной удар: видео, визуально измененное с помощью дипфейкового ИИ, и звук, измененный с помощью дипфейкового ИИ.

Ради обсуждения здесь я сосредоточусь только на звуковых аспектах дипфейка на основе ИИ, которые, как упоминалось ранее, обычно называют клонированием голоса или репликацией голоса. Некоторые нахально называют это голосом в банке.

Я уверен, что некоторые из вас прямо сейчас увещевают, что у нас уже давно есть возможность использовать компьютерные программы для клонирования голосов. Это не ново само по себе. Я согласен. В то же время мы должны признать, что эти высокотехнологичные возможности становятся все лучше и лучше. Ну, я говорю все лучше и лучше, но, может быть, как вы вскоре увидите, я должен сказать, что это становится все более и более тревожным.

Держитесь за эту мысль.

Технологическое мастерство, безусловно, продвигается вперед для клонирования голоса. Например, раньше вам приходилось «обучать» программу репликации звука ИИ, произнося целую историю из смешанных слов. Сродни знаменитой или печально известной реплике о быстрой коричневой лисе, которая перепрыгнула через ленивую собаку (строка, предназначенная для того, чтобы заставить кого-то заполнить все буквы алфавита), существуют специально созданные короткие рассказы, которые содержат смесь слов для целей заставить вас говорить достаточное количество слов и достаточно широкий спектр слов, чтобы упростить сопоставление шаблонов ИИ.

Возможно, вам пришлось прочитать несколько страниц слов, часто включая слова, которые вы с трудом произносите и даже не уверены, что они означают, чтобы в достаточной степени обеспечить сопоставление с образцом ИИ. Это может занять много минут, а иногда и часов разговоров, чтобы предоставить ИИ достаточно звука, чтобы использовать его для поиска четких паттернов вашего голоса. Если бы вы пренебрегли этим тренировочным заданием, скорее всего, полученное в результате воспроизведение голоса было бы легко сбито любыми вашими друзьями, которые хорошо знают ваш голос.

Хорошо, тогда интерес разработчиков ИИ был сосредоточен на том, как оптимизировать аспекты воспроизведения звука. Разработчики ИИ любят вызовы. Говорят, что они оптимизаторы в душе. Дайте им проблему, и они будут склонны к оптимизации, независимо от того, к чему это может привести (я упоминаю об этом как о предзнаменовании, которое вскоре станет яснее).

Ответь мне на это:

  • Каков наименьший объем аудиосэмпла, который потребуется для максимального клонирования голоса человека, и для которого аудиосэмпл может быть практически любым случайно разрешенным набором слов, и при этом позволять клонированию голоса воспроизводить практически любые слова, которые когда-либо были произнесены? целевым голосом и звуком, практически идентичным голосу этого человека в разговорной или другой выбранной контекстуальной обстановке?

Там есть что распаковать.

Имейте в виду, что вам нужен минимальный звуковой образец, который будет максимально клонировать голос, так что результирующие высказывания ИИ в этом теперь автоматически воспроизведенном голосе будут казаться полностью неотличимыми от реального человека. Это сложнее, чем вы думаете.

Это похоже на игровое шоу, в котором вы должны попытаться назвать песню, основываясь на наименьшем количестве услышанных нот. Чем меньше сыгранных нот, тем сложнее угадать, что это за песня. Если ваша догадка неверна, вы теряете очки или проигрываете игру. Начинается борьба за то, следует ли вам использовать только одну ноту, наименьшую возможную подсказку, но тогда ваша вероятность угадать песню, по-видимому, сильно снижается. Чем больше нот вы слышите, тем выше вероятность угадать правильную песню, но вы позволяете другим участникам также иметь повышенный шанс угадать.

Помните, что мы также имеем дело с понятием предписанных слов, а не просто любых слов в случае клонирования голоса. Если человек произносит слова «Вы не можете справиться с правдой», и мы хотим, чтобы ИИ имитировал или выдавал себя за человека, ИИ, скорее всего, с помощью вычислений легко уловит шаблон. С другой стороны, предположим, что у нас есть только эти слова, сказанные этим человеком: «Это все, что вы хотите у меня спросить?», и мы хотим использовать эти слова, чтобы затем ИИ сказал: «Вы не можете справиться с правдой». Я думаю, вы понимаете, как трудно тренироваться на одном наборе слов и экстраполировать на совершенно другой набор слов.

Еще один трудный элемент состоит из контекста произносимых слов. Предположим, мы заставим вас записать предложение на аудио, когда вы спокойны и непринужденны. ИИ моделирует эти слова. Это также может отразиться на спокойствии вашего голоса. Представьте, что затем мы хотим, чтобы ИИ притворился, что это вы, когда вы кричите в бешенстве и злости, как шершень. Когда ИИ искажает исходный паттерн, превращая его в точно разгневанную версию вашего голоса, это может быть пугающе.

Какие минимумы мы рассматриваем?

Цель сейчас — побить минутную отметку.

Возьмите записанный голос, для которого у вас есть звук менее чем за минуту, и попросите ИИ сделать все удивительное клонирование голоса только из этого крошечного образца. Я хочу уточнить, что практически любой может создать ИИ, способный на это. в общем менее чем за одну минуту, хотя полученный голосовой клон хлипкий и легко определяется как неполный. Опять же, я явно и непреклонно утверждаю, что время выборки минимально. и при этом клонирование голоса находится на максимуме. Бездельник может добиться минимальной выборки, если ему также будет позволено быть крайне субмаксимальным в клонировании голоса.

Это увлекательная и захватывающая технологическая задача. Однако вам может быть интересно узнать о ценности или достоинствах этого. С какой целью мы ищем? Какие преимущества для человечества мы можем ожидать, имея возможность так эффективно и действенно выполнять репликацию голоса на основе ИИ?

Я хочу, чтобы вы обдумали этот животрепещущий вопрос.

Неправильный ответ может ненароком превратить вас в кучу каши.

Вот то, что кажется оптимистичным и в целом позитивным.

Предположим, что у нас могут быть старые записи известных людей, таких как Авраам Линкольн, и мы можем использовать эти пыльные аудиофрагменты для создания голосового клона на основе ИИ. Затем мы могли слышать, как Линкольн произносит Геттисбергскую речь, как будто мы были там в тот день, когда он произнес памятную речь семилетней давности. В качестве примечания, к сожалению, у нас нет аудиозаписей голоса Линкольна (технологии тогда еще не существовало), но у нас есть записи голоса президента Бенджамина Харрисона (первого из президентов США, у которого есть запись голоса, сделанная из ) и другие президенты после этого.

Я полагаю, что мы все, вероятно, разумно согласимся с тем, что это конкретное использование клонирования голоса на основе ИИ совершенно нормально. На самом деле, мы, вероятно, хотели бы этого больше, чем если бы сегодня актер попытался притвориться, что говорит, как Линкольн. Актер, вероятно, придумывал то, что, по их мнению, звучал настоящий голос Линкольна. Это будет выдумка, возможно, далекая от голоса Линкольна. Вместо этого, используя высококвалифицированную систему клонирования голоса ИИ, не возникнет никаких споров о том, как на самом деле звучал голос Линкольна. ИИ был бы фактически правильным, по крайней мере, в той мере, в какой он хорошо воспроизводит целевой голос.

В категории достоинств клонирования голоса ИИ мы можем одержать победу с таким вариантом использования.

Не хочу быть мрачным, но есть и обратная сторона даже у этого явно положительного использования.

Кто-то использует систему клонирования голоса ИИ, чтобы вычислить голос Теодора Рузвельта («Тедди»), нашего заветного 26th Президент Соединенных Штатов, натуралист, защитник природы, государственный деятель, писатель, историк и почти повсеместно признанный уважаемым человеком. Речи, которые он произносил и для которых у нас нет исторически сохранившихся аудиоверсий, теперь можно было «произносить» так, как если бы он говорил сегодня лично. Похвальный толчок для изучения истории.

Давайте сделаем это уродливым, просто чтобы выявить его недостатки.

Мы используем голосовой клон Тедди на основе искусственного интеллекта, чтобы прочитать речь злого диктатора. ИИ не заботится о том, что он говорит, поскольку в ИИ нет никакого подобия разума. Слова — это просто слова или, точнее, просто звуки.

Вы можете быть ошеломлены тем, что кто-то может сделать что-то такого закулисного характера. Какого черта клонированный голос знаменитого и почитаемого Теодора Рузвельта, основанный на искусственном интеллекте, использовался для произнесения речи, которую Тедди не только изначально не произносил, но и вдобавок ко всему говорит на тему, изображающую злобность презренного диктатор?

Возмутительно, можете воскликнуть вы.

Легко сделать, приходит ответ.

По сути, одна очень важная проблема, связанная с репликацией голоса на основе ИИ, заключается в том, что мы внезапно окажемся заваленными фальшивыми или, скажем так, дипфейковыми речами и высказываниями, которые не имеют ничего общего с какими-либо историческими фактами или точностью. Если их будет сделано и обнародовано достаточное количество, мы можем запутаться в том, что является фактом, а что вымыслом.

Вы можете в изобилии видеть, как это может возникнуть. Используя голосовой клон на основе искусственного интеллекта, кто-то делает аудиозапись выступления Вудро Вильсона, которого он никогда не произносил. Об этом сообщается в Интернете. Кто-то еще слышит запись и считает, что это настоящая вещь. Они размещают его в другом месте, упоминая, что нашли эту великую историческую запись Вудро Вильсона. Достаточно скоро ученики на уроках истории используют аудиозапись вместо чтения письменной версии речи.

Никто так и не узнает, произносил ли речь Вудро Вильсон или нет. Может быть, это было, а может быть, и нет, и все считают, что это не имеет большого значения в любом случае (ну, те, кто не ориентирован на историческую точность и факты). Конечно, если речь подлая, это создает ложное впечатление или дезинформационное изображение этой исторической личности. История и вымысел сливаются воедино.

Я надеюсь, что вы, надеюсь, убеждены, что это недостаток, связанный с клонированием голоса на основе ИИ.

Опять же, мы уже можем делать такие вещи, делая это без более новой и улучшенной репликации голоса на основе ИИ, но делать это станет проще, и в результате будет чрезвычайно сложно отличить настоящий звук от поддельного. В настоящее время, используя обычные программы для создания звука, вы обычно можете прослушать вывод и часто легко установить, что звук подделан. Благодаря достижениям в области искусственного интеллекта вы достаточно скоро перестанете верить своим ушам, если можно так выразиться.

Каким бы плохим ни было клонирование голоса исторических личностей, нам нужно подумать о возможно особенно вопиющих способах его использования, которые влекут за собой живых людей сегодня.

Во-первых, вы когда-нибудь слышали о довольно популярной афере, в которой кто-то выдает себя за босса или что-то подобное? Несколько лет назад была тревожная мода звонить в ресторан или магазин и притворяться боссом заведения. Подделка заключалась в том, чтобы заставить сотрудника делать нелепые вещи, которые они часто послушно делали, ложно полагая, что разговаривают со своим боссом.

Я не хочу погрязнуть в подобных возмутительных правонарушениях, но еще одно уместное действие состоит в том, чтобы позвонить кому-то, кто может плохо слышать, и притвориться их внуком или внучкой. Имитатор пытается убедить бабушку и дедушку предоставить деньги, чтобы помочь или, возможно, каким-то образом спасти их. Судя по олицетворенному голосу, бабушка и дедушка обмануты. Презренный. Позорно. Грустный.

Мы вот-вот вступим в эру, в которой клонирование голоса на основе ИИ позволит на стероидах, если бы вы были, появление мошенничества и мошенничества, связанных с голосом. ИИ проделает такую ​​замечательную работу по репликации голоса, что любой, кто услышит голос, поклянется своей клятвой, что говорил настоящий человек.

Как далеко это может зайти?

Некоторые обеспокоены тем, что использование, скажем, атомного оружия и военных атак может произойти из-за того, что кто-то использует голосовой клон на основе искусственного интеллекта, который обманом заставляет других поверить в то, что высокопоставленный военный офицер отдает прямую команду. То же самое можно сказать о любом человеке, занимающем любую видную должность. Используйте невероятно точный голосовой клон ИИ, чтобы заставить банковского руководителя высвободить миллионы долларов наличными, делая это на основании того, что его обманывают, заставляя поверить, что он разговаривает с банковским клиентом под рукой.

В прошлые годы делать это с помощью ИИ было бы не обязательно убедительно. В тот момент, когда человек на другом конце провода начинает задавать вопросы, ИИ должен будет отступить от подготовленного сценария. В этот момент клонирование голоса ухудшалось, иногда радикально. Единственным средством продолжения мошенничества было возвращение разговора в сценарий.

С тем типом ИИ, который мы имеем сегодня, включая достижения в области обработки естественного языка (NLP), вы можете выйти за рамки сценария и потенциально сделать так, чтобы клон голоса ИИ говорил в естественной разговорной манере (это не всегда так, и есть еще способы сбить с толку ИИ).

Прежде чем перейти к еще большему количеству мяса и картошки о диких и необъяснимых соображениях, лежащих в основе клонирования голоса на основе ИИ, давайте установим некоторые дополнительные основы по очень важным темам. Нам нужно кратко окунуться в этику ИИ и особенно в появление машинного обучения (МО) и глубокого обучения (ГО).

Возможно, вы смутно осознаете, что один из самых громких голосов в наши дни в области ИИ и даже за его пределами состоит в том, чтобы требовать большего подобия этического ИИ. Давайте посмотрим, что означает обращение к этике ИИ и этичному ИИ. Кроме того, мы рассмотрим, что я имею в виду, когда говорю о машинном обучении и глубоком обучении.

Один конкретный сегмент или часть этики ИИ, которая привлекает большое внимание средств массовой информации, состоит из ИИ, который демонстрирует неблагоприятные предубеждения и несправедливость. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в неэтичную пропасть (см. мой анализ таких возможностей на ссылка здесь).

Через мгновение я поделюсь с вами некоторыми всеобъемлющими принципами, лежащими в основе этики ИИ. Есть много таких списков, плавающих то здесь, то там. Можно сказать, что единого списка универсальной привлекательности и согласованности пока не существует. Это неприятная новость. Хорошая новость заключается в том, что, по крайней мере, существуют легкодоступные списки этики ИИ, и они, как правило, очень похожи. Все это говорит о том, что с помощью своего рода обоснованной конвергенции мы находим путь к общей общности того, из чего состоит этика ИИ.

Во-первых, давайте кратко рассмотрим некоторые из общих этических принципов ИИ, чтобы проиллюстрировать, что должно быть жизненно важным соображением для любого, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологий, процессов разработки и методов работы, применимых к возможностям ИИ, включая прозрачные и проверяемые методологии, источники данных, процедуры проектирования и документацию.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как указывалось ранее, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна разбираться в принципах этики ИИ и соблюдать их.

Давайте также убедимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели дико рассуждать о чувствующий AI, эта дискуссия может пойти в совершенно ином направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхинтеллектуальный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей.

Давайте будем более приземленными и рассмотрим современный вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Вернемся к нашему вниманию к клонированию голоса на основе ИИ.

На недавней конференции презентация Amazon была призвана продемонстрировать желаемые преимущества клонирования голоса на основе ИИ и выделить последние передовые технологии ИИ, используемые в Alexa для расширения его возможностей. Согласно новостным сообщениям, подготовленный пример, который должен был быть трогательным и оптимистичным, состоял в том, чтобы ребенок просил Алексу, чтобы его бабушка дочитала ему историю Волшебник из страны Оз. Зрителям сказали, что бабушка скончалась, и что это было средством для ребенка, по сути, воссоединиться со своими дорогими бабушкой и дедушкой. Все это, по-видимому, было частью видео, созданного Amazon, чтобы помочь продемонстрировать последние достижения команды разработчиков Alexa в области клонирования голоса ИИ (включая функции, которые еще официально не запущены для публичного использования).

Одна из реакций на этот пример заключается в том, что мы были бы очень тронуты тем, что ребенок снова услышал голос своей бабушки. По-видимому, мы должны предположить, что бабушка еще не записала полное прочтение истории, поэтому клонирование ИИ выполняло работу по созданию впечатления, будто бабушка теперь полностью читала.

Замечательный и потрясающий способ воссоединиться с близкими, которых больше нет с нами.

Не все репортеры и аналитики (плюс Twitter) были настолько склонны положительно интерпретировать это продвижение. Некоторые назвали это откровенно жутким. Говорят, что попытка воссоздать голос умершего любимого человека была странной и несколько причудливой затеей.

Вопросов предостаточно, например:

  • Не растерялся бы ребенок и не поверил бы, что умерший любимый человек еще жив?
  • Мог ли теперь ребенок вовлечься в какую-нибудь неблаговидную шалость или аферу, ложно полагая, что бабушка все еще с нами?
  • Может ли ребенок страдать, услышав об умершем близком человеке, и впасть в уныние от того, что снова скучает по бабушке или дедушке, как бы открывая уже залеченные душевные раны?
  • Подумает ли ребенок, что умерший может говорить с другой стороны, а именно, что этот мистический голос, который оказывается именно его бабушкой, говорит с ним из могилы?
  • Возможно ли, чтобы ребенок думал, что ИИ каким-то образом воплотил его бабушку, антропоморфизировав ИИ так, что ребенок вырастет, веря в то, что ИИ может полностью воспроизвести людей?
  • Предположим, ребенок настолько влюбляется в воспроизведенный искусственным интеллектом голос бабушки, что становится одержимым и использует этот голос для прослушивания всевозможных аудиозаписей?
  • Может ли поставщик, который воспроизводит голос, решить использовать этот голос для других, использующих ту же общую систему, делая это без получения явного разрешения от семьи и, таким образом, «извлекая выгоду» из разработанного голоса?
  • И так далее.

Важно понимать, что вы можете вызвать в воображении столько же негативов, сколько и позитивов, или, скажем так, столько же позитивов, сколько и негативов. В основе этих достижений ИИ лежат компромиссы. Смотреть только на одну сторону медали, возможно, близоруко.

Главное – убедиться, что мы рассматриваем все стороны этих вопросов. Не затуманивайтесь в своем мышлении. Может быть легко исследовать только положительные стороны. Можно легко исследовать только негативы. Нам нужно изучить оба и выяснить, что можно сделать, чтобы, как мы надеемся, использовать положительные стороны и попытаться уменьшить, устранить или, по крайней мере, смягчить отрицательные стороны.

В какой-то степени именно поэтому этика ИИ и этический ИИ являются такой важной темой. Заповеди этики ИИ заставляют нас сохранять бдительность. Технологи ИИ могут время от времени увлекаться технологиями, особенно оптимизацией высоких технологий. Они не обязательно учитывают более крупные социальные последствия. Наличие этического мышления ИИ и его неотъемлемая часть разработки и внедрения ИИ жизненно важны для создания надлежащего ИИ.

Помимо использования этики ИИ, возникает соответствующий вопрос о том, должны ли мы иметь законы, регулирующие различные виды использования ИИ, такие как функции клонирования голоса на основе ИИ. На федеральном уровне, уровне штатов и на местном уровне обсуждаются новые законы, касающиеся диапазона и характера разработки ИИ. Усилия по разработке и принятию таких законов носят постепенный характер. Этика ИИ служит, по крайней мере, временной мерой.

При этом некоторые утверждают, что нам не нужны новые законы, касающиеся ИИ, и что наших существующих законов достаточно. На самом деле, они предупреждают, что если мы примем некоторые из этих законов об ИИ, мы убьем золотого гуся, пресекая достижения в области ИИ, которые предлагают огромные социальные преимущества. См., например, мое покрытие на ссылка здесь и ссылка здесь.

Могу поспорить, что на данном этапе этой серьезной дискуссии вам нужны наглядные примеры, которые могли бы продемонстрировать эту тему. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-нибудь о клонировании голоса на основе ИИ, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Беспилотные автомобили и клонирование голоса с помощью искусственного интеллекта

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я надеюсь, что это дает достаточное количество предостережений, чтобы обосновать то, что я собираюсь рассказать.

Давайте набросаем сценарий, который может использовать клонирование голоса на основе ИИ.

Родитель и их ребенок садятся в беспилотный автомобиль на основе искусственного интеллекта. Они идут в местный продуктовый магазин. Ожидается, что это будет относительно беспрецедентная поездка. Просто еженедельная поездка в магазин, хотя водитель — это система вождения с искусственным интеллектом, и родителю не нужно заниматься вождением.

Для родителя это большое благо. Вместо того, чтобы сосредотачиваться на управлении автомобилем и вождении, родитель может вместо этого посвятить свое внимание своему ребенку. Они могут вместе играть в автономном транспортном средстве и проводить время с пользой. В то время как родитель обычно отвлекается на вождение и, вероятно, становится беспокойным и напряженным, перемещаясь по оживленным улицам и имея дело с другими сумасшедшими водителями поблизости, здесь родитель находится в блаженном неведении об этих проблемах и исключительно восхитительно взаимодействует со своим драгоценным ребенком.

Родитель говорит с системой вождения ИИ и говорит ИИ отвезти их в продуктовый магазин. В типичном сценарии ИИ ответил бы нейтральным звуковым высказыванием, которое вы могли бы услышать через сегодняшние Alexa или Siri. ИИ может ответить, заявив, что продуктовый магазин находится в 15 минутах езды. Кроме того, ИИ может заявить, что беспилотный автомобиль высадит их прямо перед магазином.

Это может быть единственной связанной с голосом активностью ИИ в таком сценарии. Возможно, как только беспилотный автомобиль приблизится к продуктовому магазину, ИИ может сказать что-то о приближении пункта назначения. Также может быть голосовое напоминание взять свои вещи с собой, когда вы выходите из автономного автомобиля.

Я уже объяснял, что некоторые системы управления ИИ будут, так сказать, болтливыми кошками. Они будут запрограммированы на более плавное и постоянное взаимодействие с людьми-гонщиками. Когда вы садитесь в транспортное средство, которым управляет человек, иногда вам хочется, чтобы водитель был болтливым. Помимо приветствия, вы можете захотеть, чтобы они рассказали вам о местных погодных условиях или, возможно, указали на другие места, которые стоит посмотреть в этом районе. Не всем нужна болтливая кошка, поэтому ИИ должен быть разработан таким образом, чтобы вступать в диалоги только тогда, когда этого требует человек. ссылка здесь.

Теперь, когда у меня есть все установленное, давайте немного изменим ситуацию.

Представьте, что система вождения с искусственным интеллектом имеет функцию клонирования голоса на основе искусственного интеллекта. Давайте также предположим, что родитель ранее запустил клонирование голоса ИИ, предоставив аудиофрагмент бабушки ребенка. Сюрприз, думает родитель, я заставлю систему вождения ИИ говорить так, как будто это умершая бабушка ребенка.

Во время поездки в продуктовый магазин система вождения AI взаимодействует с родителем и ребенком, все время используя исключительно клонированный голос бабушки.

Что ты думаешь об этом?

Жуткий или нежно запоминающийся?

Я подниму вещи на ступеньку выше. Приготовься. Пристегните ремень безопасности.

Некоторые верят так же, как и я, что в конечном итоге мы позволим детям самостоятельно ездить на беспилотных автомобилях на базе ИИ, см. мой анализ на ссылка здесь.

В современных автомобилях, управляемых людьми, всегда должен присутствовать взрослый, потому что закон требует, чтобы за рулем находился взрослый водитель. Для всех практических целей вы никогда не можете иметь ребенка в движущейся машине, который находится в транспортном средстве сам по себе (да, я знаю, что это случается, например, видный 10-летний сын крупной кинозвезды, который недавно поддержал очень дорогая машина в другую очень дорогую машину, но все равно это раритеты).

Сегодняшние родители, вероятно, категорически возражали бы против того, чтобы позволить своим детям ездить на беспилотном автомобиле, в котором отсутствует взрослый, выполняющий функции надзирателя или присматривающий за детьми. Я знаю, что это кажется почти невозможным, но я держу пари, что как только беспилотные автомобили станут широко распространены, мы неизбежно примем идею о том, что дети будут ездить без взрослых во время езды на беспилотном автомобиле.

Учитывайте фактор удобства.

Вы на работе, и ваш босс преследует вас, чтобы выполнить задание. Вам нужно забрать ребенка из школы и отвезти его на тренировку по бейсболу. Вы застряли между молотом и наковальней из-за того, что слишком умиротворяете своего начальника или не берете ребенка на тренировку. Никто из ваших знакомых не может подвезти вашего ребенка. Во всяком случае, вы, конечно же, не хотите использовать службу совместного использования, в которой есть водитель-человек, поскольку вы, естественно, будете обеспокоены тем, что этот незнакомый взрослый может сказать или сделать, пока подвозит вашего ребенка.

Нет проблем, не беспокойтесь, просто используйте беспилотный автомобиль на основе искусственного интеллекта. Вы дистанционно управляете беспилотным автомобилем, чтобы забрать вашего ребенка. С помощью камер беспилотного автомобиля вы можете видеть и наблюдать, как ваш ребенок садится в автономный автомобиль. Кроме того, есть камеры, обращенные внутрь, и вы можете наблюдать за своим ребенком на протяжении всего пути. Это кажется таким же безопасным, если не более безопасным, чем просить незнакомого человека-водителя подвезти вашего ребенка. При этом некоторые справедливо обеспокоены тем, что если вождение пойдет наперекосяк, ребенок будет предоставлен самому себе, и ни один взрослый не сможет немедленно помочь или направить ребенка.

Оставив в стороне многочисленные сомнения, предположим, что те же родитель и ребенок, которых я описывал в предыдущем сценарии, не возражают против того, чтобы ребенок катался на прогулке без присутствия родителя. Просто примите, что это, в конечном счете, жизнеспособный сценарий.

Вот финальный кикер.

Каждый раз, когда ребенок едет в самоуправляемом автомобиле на основе ИИ, его приветствуют и взаимодействуют с ИИ, поскольку он использует клонирование голоса на основе ИИ и воспроизводит голос умершей бабушки ребенка.

Что вы думаете об этих яблоках?

Когда родитель также присутствовал в беспилотном автомобиле, возможно, мы могли бы извинить использование голоса ИИ, поскольку родитель должен сообщить ребенку о том, что происходит, когда говорит звук ИИ. Но когда родитель отсутствует, мы теперь предполагаем, что ребенок идеально справляется с воспроизведением голоса бабушки.

Это определенно один из тех моментов, когда нужно серьезно подумать о том, хорошо это или плохо для ребенка.

Заключение

Давайте проведем небольшой мысленный эксперимент, чтобы обдумать эти важные вопросы.

Пожалуйста, придумайте три прочно положительный Причины для клонирования голоса на основе ИИ.

Я подожду, пока ты их придумаешь.

Далее придумать три прочно отрицательный причины, которые подрывают появление клонирования голоса на основе ИИ.

Я предполагаю, что вы придумали кое-что.

Я понимаю, что вы, несомненно, можете придумать гораздо больше причин, чем три, которые либо благоприятствуют, либо не одобряют эту технологию. На ваш взгляд, минусы перевешивают плюсы? Есть те критики, которые утверждают, что мы должны положить конец таким усилиям.

Некоторые хотят попытаться запретить фирмам использовать клонирование голоса на основе ИИ, хотя и понимают, что это одна из тех классических проблем, с которыми приходится сталкиваться. Любая фирма, которую вы перестанете использовать, скорее всего, начнет использовать какая-то другая фирма. Заморозить часы или убрать такой ИИ будет почти невозможно.

В качестве последнего замечания по этой теме на данный момент представьте, что может произойти, если мы когда-нибудь сможем создать разумный ИИ. Я не говорю, что это произойдет. В любом случае мы можем предположить и посмотреть, к чему это может привести.

Во-первых, рассмотрим поучительную цитату о том, как говорить и иметь голос. Мадлен Олбрайт однажды сказала: «Мне потребовалось довольно много времени, чтобы развить голос, и теперь, когда он у меня есть, я не собираюсь молчать».

Если мы можем создать разумный ИИ или каким-то образом разум возникает, даже если мы не создаем его напрямую, какой голос должен быть у этого ИИ? Предположим, что он может использовать клонирование голоса на основе ИИ и, следовательно, воспроизводить любой голос любого человека с помощью небольшого фрагмента аудиосемплирования, который может быть доступен в том виде, в каком он произнес этот человек. Затем такой ИИ мог бы заговорить и обмануть вас, заставив поверить, что ИИ, по-видимому, и есть этот человек.

С другой стороны, возможно, ИИ захочет иметь свой собственный голос и намеренно изобретет голос, совершенно непохожий на все другие человеческие голоса, желая быть особенным в своем собственном очаровательном стиле.

Черт возьми, это оставляет человека почти безмолвным.

Источник: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- предназначенный для использования в автономных системах искусственного интеллекта/