Масштабно назревающая «рецессия доверия» направлена ​​на то, чтобы подорвать ответственный ИИ, говорит этика ИИ и закон об ИИ

Я уверен, что вы знакомы со старой поговоркой о том, что прилив поднимает все лодки. Есть и другая сторона этой медали, возможно, не так хорошо известная, а именно то, что отступающий прилив топит все корабли.

Суть в том, что иногда прилив определяет, идете ли вы вверх или вниз.

Прилив собирается делать то, что он делает. У вас может не быть особого мнения по этому вопросу. Если ваша лодка пришвартована или стоит на якоре во время прилива, вы находитесь во власти прилива. Ключ в том, чтобы понять, что прилив существует, а также предвидеть, в каком направлении он движется. Если повезет, вы сможете переждать прилив и остаться невредимым.

Давайте рассмотрим, какое отношение все эти мореходные разговоры о лодках и течениях имеют к искусственному интеллекту (ИИ).

Во-первых, я хотел бы представить вам все более популярную крылатую фразу Ответственный AI. Общее представление состоит в том, что мы хотим, чтобы ИИ придерживался правильных и желательных человеческих ценностей. Некоторые называют это Ответственный AI. Другие так же рассуждают Подотчетный ИИ, Надежный ИИкачества Выравнивание ИИ, все из которых касаются одного и того же краеугольного принципа. Мое обсуждение этих важных вопросов см. ссылка здесь и ссылка здесь, и это лишь некоторые из моих постоянных и обширных статей об этике и законах об ИИ в моей колонке Forbes.

Важнейшим компонентом, влекущим за собой загадку выравнивания ИИ, является видимость доверия. Можем ли мы верить, что ИИ будет в целости и сохранности? Можем ли мы верить, что те, кто разрабатывает ИИ, будут стремиться делать это ответственно и надлежащим образом? Можем ли мы доверять тем, кто внедряет ИИ и занимается эксплуатацией и обслуживанием ИИ?

Это большое доверие.

Специалисты по этике ИИ и закону об ИИ прилагают постоянные усилия, чтобы укрепить чувство доверия к ИИ. Считается, что, установив подходящие «мягкие законы», которые предписываются в виде набора руководств или заповедей этического ИИ, у нас может быть шанс заставить разработчиков ИИ и операторов ИИ соблюдать этически обоснованные методы. Кроме того, если мы разработаем и примем достаточно внимательные законы и постановления, контролирующие или регулирующие ИИ, считающиеся «жесткими законами» из-за того, что они включены в официальные юридические книги, есть большая вероятность направить ИИ по прямому и юридически допустимому пути.

Если люди не доверяют ИИ, они не смогут воспользоваться преимуществами, которыми обладает хороший ИИ. Я на мгновение укажу, что есть AI для хорошего и, к сожалению, есть также AI для плохих. Плохой ИИ может воздействовать на человечество множеством неблагоприятных способов. Существует ИИ, который действует дискриминационным образом и проявляет неправомерные предубеждения. Существует ИИ, который может косвенно или косвенно навредить людям. И так далее.

Итак, у нас есть AI для хорошего которые мы горячо хотим разработать и использовать. Между тем, есть AI для плохих что мы хотим сократить и попытаться предотвратить. AI для плохих подрывает доверие к ИИ. AI для хорошего обычно повышает доверие к ИИ. Идет тяжелая борьба между растущим ростом доверия, которое постоянно сводится на нет жестоким подрывом доверия.

Наверх идет доверие к ИИ, которое впоследствии сбивается. Затем сниженный уровень доверия к ИИ снова повышается. Взад и вперед уровни доверия ИИ колеблются. Этого почти достаточно, чтобы вызвать у вас головокружение. Ваш желудок скручивает, похоже на морскую болезнь, как будто вы находитесь в лодке, которая качается и качается в океане.

Пока идет эта битва, вы можете утверждать, что есть еще один макроскопический фактор, который служит еще большей нагрузке на прогресс масштабирования доверия. В игре есть нечто гораздо большее. Подъем и падение доверия ИИ зависит от прихоти морского чудовища. Да, доверие ИИ похоже на лодку, плывущую в царстве, которое в конечном счете более выражено, чем битвы и стычки, происходящие между AI для хорошего и AI для плохих.

Что я имею в виду, спросите вы насмешливо?

я намекаю на массовый «спад доверия» что наше общество в настоящее время терпит.

Позвольте мне пояснить.

Сегодня в СМИ много говорят о рецессии.

В экономическом смысле рецессией считается сокращение экономики, обычно связанное со снижением экономической активности. Обычно мы являемся свидетелями или переживаем рецессию из-за таких экономических условий, как падение реальных доходов, падение ВВП (валового внутреннего продукта), сокращение занятости и увольнений, сокращение промышленного производства и тому подобное. Я не собираюсь вдаваться в расширенную дискуссию об экономических рецессиях, по поводу которых ведется много споров о том, что представляет собой настоящая рецессия, а не рецессия заявленная или оспариваемая (вы можете найти множество говорящих голов, которые горячо обсуждают эту тему).

Понятие «рецессии» расширилось и теперь включает другие аспекты жизни общества, выходящие за рамки только экономической направленности. Вы можете сослаться на любое замедление того или иного процесса как на возможное увязание в рецессии. Это удобное слово с множеством применений.

Приготовьтесь к одному использованию, о котором вы, возможно, еще не слышали.

Рецессия доверия.

Правильно, мы можем говорить о явлении, известном как рецессия доверия.

Суть в том, что общество в целом может испытывать замедление или снижение доверия. Вы, несомненно, почувствовали это. Если вы пользуетесь какими-либо социальными сетями, безусловно, создается впечатление, что доверие к нашим основным институтам, таким как наши правительства или крупные организации, резко упало. Вещи, безусловно, чувствуют себя именно так.

Вы не одиноки в том, что почувствовали леденящий кровь оттенок падения доверия в обществе.

Статья в Атлантический океан под названием «Конец доверия» в прошлом году постулировал следующие ключевые выводы о том, куда движется наше общество:

  • «Возможно, мы находимся в разгаре рецессии доверия»
  • «Спираль доверия, однажды начавшись, трудно повернуть вспять»
  • «Его упадок смутно ощущается, прежде чем он становится явным»

Рецессия доверия подкрадывается ко всем нам. Дюйм за дюймом доверие слабеет. Усилия по укреплению доверия становятся все труднее и труднее осуществить. Скептицизм преобладает. Мы сомневаемся, что нужно доверять. Мы даже не верим, что доверие можно особо заслужить (доверие в каком-то смысле призрак, фальшь, его нельзя сделать конкретным и надежным).

Дело в том, что нам нужно доверие в нашем обществе.

Согласно той же статье: «Доверие. Без него невидимая рука Адама Смита остается в его кармане; «Животные духи» Кейнса приглушены. «Практически каждая коммерческая сделка содержит в себе элемент доверия», — писал лауреат Нобелевской премии по экономике Кеннет Эрроу в 1972 году» (цитата из «The End Of Trust», The Atlantic, 24 ноября 2021 г., Джерри Усим).

Исследования показывают, что существует почти прямая связь между экономическими показателями и элементом доверия в обществе. Возможно, это спорное утверждение, хотя интуитивно кажется, что оно выдерживает критику. Подумайте об этом примечательном утверждении: «Экономисты Пол Зак и Стивен Нэк обнаружили в исследовании, опубликованном в 1998 году, что 15-процентный скачок в вере страны в то, что «большинству людей можно доверять», каждый год добавляет полный процентный пункт к экономическому росту». (там же).

Найдите минутку и поразмышляйте над своими взглядами на доверие.

Есть ли у вас сегодня более высокий уровень доверия или пониженный уровень доверия в каждой из этих соответствующих сфер:

  • Доверие к правительству
  • Доверие к бизнесу
  • Доверяйте лидерам
  • Доверие к нациям
  • Доверие к брендам
  • Доверяйте СМИ
  • Доверие к отдельным лицам

Если вы действительно можете сказать, что ваше доверие выше, чем когда-то, для всех этих граней, то вам ошеломляющий кончик шляпы (вы живете в мире беззастенчивого блаженства). В общем и целом, я осмелюсь сказать, что большая часть планеты выразила бы обратное в плане их доверия к тем священным знаковым элементам, которые исчезли.

Заметно так.

Данные, похоже, подтверждают утверждение о том, что доверие в нашем обществе подорвано. Выберите любой из вышеупомянутых миров. С точки зрения нашей веры в возможности правительства: «Доверие к правительству резко упало по сравнению с пиковым значением в 1964 году, по данным Исследовательского центра Пью, и с тех пор, за некоторыми исключениями, трещит по швам» (там же).

У вас может возникнуть соблазн возразить, что доверие к людям не должно быть в списке. Конечно, мы по-прежнему доверяем друг другу. Мы больше не доверяем только тем большим и плохим институтам. Наше доверие от человека к человеку должно оставаться таким же, каким оно было всегда.

Извините, что сообщаю вам это: «Данные о доверии между отдельными американцами найти труднее; По данным Pew, опросы задают вопросы о так называемом межличностном доверии менее последовательно. Но, по одной из оценок, процент американцев, веривших, что «большинству людей можно доверять», еще в середине 45-х годов составлял около 80 процентов; теперь она составляет 30 процентов» (там же).

Жестоко, но верно.

Недавнее интервью с экспертами по доверию привело к такому изложению:

· «Плохая новость заключается в том, что если доверие и является таким драгоценным природным ресурсом, то оно находится под угрозой исчезновения. Так, в 1972 году около половины американцев согласились с тем, что большинству людей можно доверять. Но к 2018 году этот показатель упал примерно до 30%. Мы доверяем институтам гораздо меньше, чем 50 лет назад. Например, в 1970 году 80% американцев доверяли медицинской системе. Сейчас 38%. Телевизионные новости в 1970-е годы составляли 46%. Сейчас 11%. Конгресс, 42% против 7%. Мы переживаем масштабную рецессию доверия, и это наносит нам ущерб рядом способов, о которых, вероятно, большинство людей совершенно не подозревают» (интервью Джонатана Чанга и Мегны Чакрабарти, «Essential Trust: The Brain Science Of Trust», WBUR, ноябрь 29 сентября 2022 г., и цитируются замечания Джамиля Заки, адъюнкт-профессора психологии Стэнфордского университета и директора Стэнфордской лаборатории социальной неврологии).

Различные национальные и глобальные исследования доверия выявили барометры, связанные с уровнем доверия в обществе. Даже беглый взгляд на результаты показывает, что доверие падает, падает, падает.

В остальном средняя версия типичного рецессия доверия был «обновлен» до обозначения массивный рецессия доверия. У нас не просто заурядная рецессия трастов; вместо этого мы имеем тотальную массовую рецессию доверия. Долгое время. Становится все больше и больше. Она пронизывает все формы нашего существования. И эта масштабная рецессия доверия затрагивает каждый аспект нашей деятельности и то, как проходит наша жизнь.

В том числе с искусственным интеллектом.

Я предполагаю, что вы предвидели это. Ранее я упоминал, что битва AI для хорошего против AI для плохих происходит. Большинство из тех, кто занимается этикой ИИ и законом об ИИ, ежедневно сталкиваются со взлетами и падениями в этих недавних битвах. Мы хотим, чтобы ответственный ИИ победил. Удивительно для многих, кто находится в агонии этих генеральных сражений, они не осознают последствий массовой рецессии доверия, которая, в некотором смысле, подавляет все, что происходит на полях сражений доверия ИИ.

Прилив — это массовая рецессия доверия. Борьба за доверие к ИИ — это лодка, которая движется вверх и вниз по собственной воле и, к сожалению, в целом идет вниз из-за отступления прилива. Как общество в целом заражено массовой рецессией доверия, так и доверие к ИИ.

Я не хочу, чтобы это выглядело как пораженчество.

Борьба за доверие к ИИ должна продолжаться. Все, что я пытаюсь подчеркнуть, это то, что, поскольку эти битвы продолжаются, имейте в виду, что доверие в целом утекает из общества. Приходится все меньше и меньше подталкивать или укреплять доверие. Оставшиеся скудные крохи доверия будут все труднее завоевывать доверие. AI для хорошего доверять амбициям.

Этот чертов поток уносит все корабли, включая доверие к ИИ.

Найдите минутку, чтобы поразмышлять над этими тремя довольно поразительными вопросами:

  • Что мы можем сделать с всепроникающим социальным массовый спад доверия когда дело доходит до ИИ?
  • Обречен ли ИИ на низшее доверие, независимо от того, что делают этика ИИ или закон об ИИ?
  • Должны ли те, кто занимается ИИ, полностью отказаться от доверия к ИИ?

Я рад, что вы спросили.

Прежде чем углубиться в тему, я хотел бы сначала заложить некоторые важные основы об ИИ и, в частности, об этике ИИ и законах об ИИ, чтобы убедиться, что обсуждение будет контекстуально разумным.

Растущее осознание этического ИИ, а также закона об ИИ

Недавняя эра ИИ изначально рассматривалась как AI для хорошего, а это означает, что мы могли бы использовать ИИ для улучшения человечества. По пятам AI для хорошего пришло осознание того, что мы тоже погружены в AI для плохих. Это включает в себя ИИ, который разработан или самоизменен, чтобы быть дискриминационным, и делает вычислительный выбор, наполняющий неправомерными предубеждениями. Иногда ИИ устроен таким образом, а в других случаях он сворачивает на эту неблагоприятную территорию.

Я хочу полностью убедиться, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели порассуждать о разумном ИИ, эта дискуссия могла бы пойти в совершенно другом направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхинтеллектуальный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Я бы настоятельно рекомендовал, чтобы мы не придавали значения вещам и рассматривали сегодняшний вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

Будьте очень осторожны с антропоморфизацией современного ИИ.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Все это имеет особенно важные последствия для этики ИИ и предлагает удобное окно для извлеченных уроков (даже до того, как все уроки произойдут), когда дело доходит до попытки законодательно закрепить ИИ.

Помимо использования принципов этики ИИ в целом, возникает соответствующий вопрос о том, должны ли мы иметь законы, регулирующие различные виды использования ИИ. На федеральном уровне, уровне штатов и на местном уровне обсуждаются новые законы, касающиеся диапазона и характера разработки ИИ. Усилия по разработке и принятию таких законов носят постепенный характер. Этика ИИ служит, по крайней мере, временной мерой и почти наверняка в какой-то степени будет непосредственно включена в эти новые законы.

Имейте в виду, что некоторые категорически утверждают, что нам не нужны новые законы, касающиеся ИИ, и что наших существующих законов достаточно. Они предупреждают, что если мы примем некоторые из этих законов об ИИ, мы убьем золотого гуся, пресекая достижения в области ИИ, которые предлагают огромные социальные преимущества.

В предыдущих колонках я рассказывал о различных национальных и международных усилиях по разработке и принятию законов, регулирующих ИИ, см. ссылка здесь, Например. Я также рассмотрел различные принципы и руководства по этике ИИ, которые были определены и приняты различными странами, включая, например, усилия Организации Объединенных Наций, такие как свод этических норм ИИ ЮНЕСКО, принятый почти в 200 странах, см. ссылка здесь.

Вот полезный краеугольный список критериев или характеристик этического ИИ, касающихся систем ИИ, которые я ранее внимательно изучал:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Предполагается, что эти принципы этики ИИ должны серьезно использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ.

Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как уже подчеркивалось здесь, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна быть осведомлена и соблюдать этические предписания ИИ.

Я тоже недавно осматривал ИИ Билль о правах таково официальное название официального документа правительства США под названием «План Билля о правах ИИ: заставить автоматизированные системы работать на благо американского народа», который стал результатом многолетних усилий Управления научно-технической политики (OSTP). ). OSTP — это федеральная организация, которая консультирует американского президента и администрацию США по различным технологическим, научным и инженерным аспектам государственной важности. В этом смысле можно сказать, что этот Билль о правах ИИ является документом, одобренным и одобренным существующим Белым домом США.

В Билле о правах ИИ есть пять ключевых категорий:

  • Безопасные и эффективные системы
  • Алгоритмическая защита от дискриминации
  • Конфиденциальность данных
  • Уведомление и объяснение
  • Человеческие альтернативы, рассмотрение и отступление

Я внимательно изучил эти заповеди, см. ссылка здесь.

Теперь, когда я заложил полезную основу для этих связанных тем, связанных с этикой ИИ и законом об ИИ, мы готовы перейти к опрометчивой теме изучения утомительного вопроса продолжающегося массовый спад доверия и его влияние на уровни доверия ИИ.

Получение большей лодки для укрепления доверия к ИИ

Давайте вернемся к моим ранее постулированным вопросам по этой теме:

  • Что мы можем сделать с всепроникающим социальным массовый спад доверия когда дело доходит до ИИ?
  • Обречен ли ИИ на низшее доверие, независимо от того, что делают этика ИИ или закон об ИИ?
  • Должны ли те, кто занимается ИИ, полностью отказаться от доверия к ИИ?

Я собираюсь пойти по оптимистичному пути и утверждать, что мы можем что-то с этим сделать.

Я также яростно сказал бы, что мы не должны бросать полотенце. Вместо этого важно работать еще усерднее и умнее, чтобы решить вопрос доверия к ИИ. Часть о том, чтобы быть умнее, влечет за собой осознание того, что мы переживаем массовую рецессию доверия, и трезвое принятие во внимание этого макроскопического надвигающегося фактора. Да, во всем, что мы делаем во время горячих усилий по принятию и поддержке этики ИИ и Закона об ИИ, будьте бдительны и приспосабливайтесь к падающему потоку доверия.

Прежде чем перейти к выбору оптимистичного или улыбающегося лица, я полагаю, что будет справедливо предложить противоположную точку зрения. Ладно, вот. Мы ничего не можем сделать с массовым спадом доверия. Как говорится, нет смысла пытаться бороться с ветряными мельницами. Таким образом, просто продолжайте бороться, и что бы ни случилось с приливом, пусть будет так.

В этом сценарии с грустным лицом вы могли бы предположить, что это пожимание плечами и капитуляция, что прилив есть прилив. Будем надеяться, что когда-нибудь массовый спад доверия ослабнет и станет просто нормальной формой спада доверия. Затем, если повезет, рецессия доверия утихнет, и доверие вернется. Мы могли бы даже закончить с быстро развивающимся чувством доверия. Бум доверия, так сказать.

Я разделю ваш выбор на следующие пять вариантов:

1) Неосведомленный. Это те сторонники этики ИИ и закона об ИИ, которые не знают, что массовый спад доверия. Они даже не знают, что они не знают.

2) Знай, но не волнуйся. Это те сторонники этики ИИ и закона об ИИ, которые знают о массовой рецессии доверия, но стряхивают ее. Пережить это, и не делать больше ничего нового.

3) Знай и справляйся с этим. Это те сторонники этики ИИ и закона об ИИ, которые знают о массовой рецессии доверия и решили справиться с ней. Они корректируют свои сообщения; они корректируют свой подход. Иногда это включает в себя смешивание рецессии доверия с их стратегиями и усилиями по укреплению доверия к ИИ и поиску неуловимого ответственного ИИ.

4) Знать и непреднамеренно ухудшить ситуацию. Это те сторонники этики ИИ и закона об ИИ, которые знают о масштабной рецессии доверия, плюс они решили что-то с этим сделать, но в конечном итоге прострелили себе ногу. Неправильно реагируя на общественную тенденцию, они ошибочно ухудшают ответственный ИИ и еще больше снижают доверие к ИИ.

5) Другие контрактные услуги (будет объяснено, на мгновение)

В каком из этих пяти вариантов вы находитесь?

Я намеренно дал пятый вариант для тех из вас, кому либо не нравится ни один из остальных четырех, либо кто искренне верит, что есть другие возможности и что ни один из перечисленных не характеризует адекватно вашу позицию.

Вам не нужно зацикливаться ни на одном из вариантов. Я просто предлагаю подборку с целью вызвать вдумчивое обсуждение достойной темы. Нам нужно говорить о массовый спад доверия, Полагаю. Пока еще не проводилось глубокого анализа подробностей усилий по ответственному ИИ и надежному ИИ, поскольку они связаны с массовой рецессией доверия в обществе.

Пришло время открыть эти шлюзы (хорошо, это, возможно, слишком много для этих каламбуров и игры слов).

Если вам интересно, из чего может состоять пятый вариант, вот тот, который может вас заинтересовать.

AI исключительность.

В области искусственного интеллекта есть люди, которые считают, что искусственный интеллект — это исключение из обычных правил. Эти сторонники исключительности ИИ утверждают, что вы не можете регулярно применять другие социальные махинации к ИИ. ИИ не затронут, потому что это грандиозное исключение.

С этой несколько догматической точки зрения моя аналогия с приливом и доверием к ИИ как с лодкой, которая качается вверх и вниз, была бы выброшена в окно как аналогичное соображение. Доверие к ИИ больше, чем прилив. Что бы ни случилось во время масштабной рецессии доверия, доверие к ИИ будет расти, куда бы оно ни шло. Если ситуация пойдет вверх, доверие к ИИ может как вырасти, так и упасть. Если ситуация пойдет на спад, доверие к ИИ может как вырасти, так и упасть. Независимо от течения, доверие ИИ имеет свою судьбу, свою судьбу, свой путь.

У меня есть еще один поворот для вас.

Кто-то может возразить, что ИИ существенно повлияет на массовый спад доверия.

Видите ли, остальная часть этого обсуждения, предположительно, отодвинула вещи назад. Дело не в том, что массовый спад доверия повлияет на доверие к ИИ, скорее, верно обратное. В зависимости от того, что мы будем делать с ИИ, рецессия доверия потенциально будет углубляться или восстанавливаться. Доверие к ИИ определит судьбу прилива. Я думаю, вы могли бы утверждать, что ИИ настолько могущественен как потенциальная сила, что он сродни солнцу, луне и земле в определении того, как пойдет прилив.

Если мы разберемся с аспектами доверия к ИИ и если люди будут доверять ИИ, может быть, это остановит рецессию доверия. Люди изменят свое доверие во всех других аспектах своей жизни. Они начнут укреплять свое доверие к правительству, бизнесу, лидерам и т. д., и все это благодаря повсеместному использованию надежного ИИ.

Надуманный?

Может быть, может и нет.

Чтобы не вводить вас в мрачное настроение, поймите, что может появиться и противоположная точка зрения на доверие к ИИ. В этом случае мы все впадаем в полное отсутствие доверия к ИИ. Мы становимся настолько недоверчивыми, что недоверие выливается в наш и без того массовый спад доверия. В свою очередь, это превращает массовую рецессию доверия в сверхгигантскую мега-массивную рецессию доверия, во много раз хуже, чем мы могли себе представить.

Соедините эту идею с расхожим представлением об ИИ как о экзистенциальном риске. Если ИИ начинает казаться, что экстремальный риск начинает реализовываться, а именно, что ИИ собирается захватить человечество и либо поработить нас, либо уничтожить нас всех, у вас, безусловно, появится веский аргумент в пользу того, что масштабная рецессия доверия набирает обороты. довольно суровая нисходящая спираль.

Я понимаю.

В любом случае, давайте надеяться на более счастливую сторону вещей, не так ли?

Заключение

Теперь, когда вы знаете о массовый спад доверия, что вы можете сделать с доверием к ИИ?

Во-первых, для тех из вас, кто знаком с этикой ИИ и законом об ИИ, обязательно рассчитайте свои Ответственный AI и Трунадежный ИИ занятия через социальный контекст, связанный с рецессией доверия. Вы должны быть осторожны, чувствуя себя удрученными из-за того, что ваши собственные усилия по повышению доверия к ИИ кажутся затрудненными или менее чем полностью успешными по сравнению с тем, что вы ожидали. Может быть, ваши усилия, по крайней мере, помогают, в то время как без вашего ведома сливная труба доверия узурпирует вашу доблестную деятельность молчаливым и, к сожалению, пагубным образом. Не отчаивайся. Возможно, если бы рецессия траста не происходила, вы бы увидели огромные успехи и необычайно похвальные результаты.

Во-вторых, нам нужно провести дополнительный анализ того, как измерить рецессию доверия, а также как измерить взлеты и падения доверия к ИИ. Не имея надежных и общепринятых метрик по всем направлениям, мы слепо плывем по океану, где не знаем, сколько морских саженей мы потеряли или приобрели.

В-третьих, подумайте о том, как показать, что доверие к ИИ формируется массовым спадом доверия. Об этом знают немногие. Инсайдеры ИИ должны глубоко задуматься над этой темой. Общественность в целом также должна быть проинформирована. Необходимо передать два сообщения. Во-первых, это массовая рецессия доверия. Во-вторых, доверие к ИИ подвержено капризам рецессии доверия, и мы должны явно учитывать это.

В качестве последнего замечания, я думаю, вы знаете знаменитый анекдот про рыбу в аквариуме.

Вот как это происходит.

Две рыбки плавают взад-вперед в аквариуме. Вокруг и вокруг, они идут. Наконец одна из рыб поворачивается к другой и говорит, что устала находиться в воде. Другая рыба обдумывает этот комментарий. Несколько мгновений спустя вдумчивая рыба вопросительно отвечает: что, черт возьми, такое вода?

Это немного старая шутка.

Предполагается, что акцент делается на том, что все, что вас окружает, может быть неузнаваемо. Вы привыкаете к этому. Это просто есть. Вы ее не замечаете, потому что она вездесуща и ничем не примечательна своим присутствием (отмечу в стороне, что некоторым циникам эта шутка не нравится, поскольку они настаивают на том, что настоящие рыбы действительно знают, что они действительно находятся в воде, и осознают «когнитивно»). как таковой, в том числе способность прыгать из воды в воздух и т. д.).

В качестве удобной рыбной сказки или притчи мы можем использовать эту удобную аллегорию денди, чтобы указать, что мы можем не осознавать, что находимся в состоянии масштабного спада доверия. Оно повсюду вокруг нас, и мы внутренне его чувствуем, но сознательно не осознаем, что оно здесь.

Пора снять шоры.

Сделайте глубокий вдох и вдохните тот факт, что наша массовая рецессия доверия существует. В свою очередь, для тех из вас, кто изо дня в день изо всех сил старается развивать ответственный ИИ и завоевывать доверие к ИИ, держите глаза широко открытыми в отношении того, как рецессия доверия вмешивается в ваши героические усилия.

Как сказал Шекспир: «Мы должны следовать течению, когда оно служит, или проиграем наши предприятия».

Источник: https://www.forbes.com/sites/lanceeliot/2022/12/04/massively-brewing-trust-recession-aims-to-erode-responsible-ai-says-ai-ethics-and-ai- закон/