Этика ИИ и психологическая прививка, вызванная ИИ, чтобы помочь людям с дезинформацией

Что мы будем делать с массовым избытком дезинформации и дезинформации?

Все явно становится все хуже и хуже с каждым днем.

Возможно, искусственный интеллект (ИИ) может прийти нам на помощь. Да, верно, мы могли бы использовать преимущества ИИ, чтобы справиться с нашим безжалостным цунами дезинформации и дезинформации. Мы могли бы быть мудрыми, чтобы попытаться сделать это. Каждое потенциальное решение казалось бы достойным изучения.

В стороне, я хотел бы сразу признать и отметить, что ИИ, несомненно, собирается Также быть частью проблемы тоже. Нет никаких сомнений в том, что люди могут легко использовать ИИ для создания дезинформации и дезинформации. Кроме того, ИИ можно коварно использовать для того, чтобы дезинформация и дезинформация казались удивительно достоверными и обманывали людей, заставляя их поверить в то, что представленная информация заманчиво точна и основана на фактах. Решительно грустная сторона того, что ИИ приносит на стол. Мы вернемся к этой обратной загадке ближе к концу этого обсуждения.

А пока давайте наденем наши смайлики и посмотрим, как ИИ помогает поставить дезинформацию и дезинформацию на свои могучие колени. Одним из важных скрытых течений будет то, что все это согласуется с жизненно важными элементами этики ИИ. Моя колонка, посвященная этике ИИ и этичному ИИ, является постоянной и обширной, в том числе ссылка здесь и ссылка здесь, Просто назвать несколько.

Рассмотрим эти краеугольные камни, благодаря которым ИИ может стать особенно полезным союзником в войне с дезинформацией и дезинформацией:

  • Остановитесь на старте: ИИ можно использовать для обнаружения и устранения дезинформации и неверных сведений до того, как они выйдут на свободу.
  • Фильтр перед просмотром: ИИ можно использовать для фильтрации дезинформации и дезинформации, чтобы вам не нужно было беспокоиться о том, что вы ее увидите.
  • Подготовьте себя к иммунитету: ИИ можно использовать для повышения вашей готовности и способности бороться с дезинформацией и неверными сведениями (формально известными как своего рода психологическая прививка).
  • Другие контрактные услуги

Первый пункт списка подразумевает попытку остановить распространение дезинформации и дезинформации в самый ранний возможный момент, до того, как контент попадет в мир.

Это очень проблематичный подход. Некоторые громко возразят, что это может быть попыткой Большого Брата подавить свободу слова. Как далеко сможет зайти этот ИИ? Может ли это помешать людям свободно выражать свои взгляды? Это устрашающе может стать скользкой дорожкой ИИ, который в конечном итоге станет худшим кошмаром злых результатов, которые невинно начались с лучшими намерениями.

Я уверен, что вы получите картину.

Второй пункт немного более умеренный и предполагает, что мы могли бы использовать ИИ для фильтрации контента для нас.

У вас может быть бот-фильтр AI, который будет сканировать все ваши входящие потоки данных из различных новостей и других источников. ИИ предназначен для обнаружения любой дезинформации или дезинформации, которая соответствует вашим личным критериям. Таким образом, в таком сценарии это не ситуация цензуры Большого Брата. Вы контролируете ИИ и то, как он фильтрует ваш настоящий почтовый ящик с информацией от вашего имени.

Звучит неплохо.

Однако есть некоторые заслуживающие внимания опасения.

Например, мы уже сильно поляризованы во взглядах, и использование ИИ может сделать эту поляризацию глубже и темнее. Представьте, что с этим ловким искусственным интеллектом, который работает круглосуточно и без выходных, вам никогда не понадобится видеть толику информации, которую вы классифицировали как потенциально дезинформацию и недостоверную информацию. Ваша поляризованная точка зрения теперь почти гарантированно останется неизменной. Весь день и всякий раз, когда вы пытаетесь взглянуть на информацию, ожидающую вашего внимания, она всегда полностью предварительно отобрана, и нет шансов бросить взгляд на так называемую дезинформацию и дезинформацию.

Я говорю, что дезинформация и дезинформация могут быть так называемые потому что существует огромное количество споров о том, что на самом деле представляет собой дезинформация и дезинформация. Некоторые ученые мужи настаивают на том, что существует абсолютное основание для установления того, что является дезинформацией, а что — дезинформацией. Есть правильное и неправильное. Все можно просчитать, не заблуждаясь, что что-то является либо дезинформацией, либо дезинформацией.

Не все видят вещи настолько четкими.

Говорят, что пресловутый взаимоисключающий контраст дихотомии вводит в заблуждение. Дезинформация одного человека не может считаться дезинформацией для другого человека. Так же и о дезинформации. Утверждение состоит в том, что дезинформация и дезинформация различаются по характеру и масштабам. Попытка окончательно классифицировать всю информацию в ту или иную кучу намного сложнее, чем предполагает махание рукой.

Суть в том, что второй пункт об использовании ИИ в качестве механизма фильтрации имеет свои недостатки. Нет никаких сомнений в том, что ИИ будет все чаще использоваться для этой цели. В то же время мы должны помнить о проблемах, которые такой ИИ выдвинет на первый план. ИИ как фильтр для дезинформации и дезинформации — это не какая-то серебряная пуля или слэм-данк.

Это подводит нас к третьему пункту, а именно к возможности использования ИИ, чтобы помочь людям лучше справляться с дезинформацией и дезинформацией.

Я сомневаюсь, что вы, вероятно, много слышали об этом третьем способе использования ИИ в этом контексте. Он только начинает появляться. Сейчас вы находитесь на переднем крае чего-то, что, скорее всего, будет расти и постепенно будет использоваться. Пожалуйста, знайте, что по мере того, как эта популярность растет, споры о том, является ли этот подход подходящим, также станут весьма заметными.

Часть проблемы заключается в том, что ИИ используется для того, что некоторые в уничижительной манере называют играть в интеллектуальные игры с людьми.

Это кажется зловещим.

Это также подводит нас к сфере этики ИИ.

Все это также связано с трезво возникающими опасениями по поводу современного ИИ и особенно использования машинного обучения и глубокого обучения как формы технологии и того, как она используется. Видите ли, есть случаи использования ML/DL, которые, как правило, включают в себя антропоморфизацию ИИ широкой публикой, веря или предпочитая предполагать, что ML/DL является либо разумным ИИ, либо близким к нему (это не так). Кроме того, ML/DL может содержать аспекты сопоставления вычислительных шаблонов, которые нежелательны, откровенно неуместны или незаконны с точки зрения этики или закона.

Возможно, было бы полезно сначала уточнить, что я имею в виду, говоря об ИИ в целом, а также дать краткий обзор машинного обучения и глубокого обучения. Существует большая путаница в отношении того, что означает искусственный интеллект. Я также хотел бы познакомить вас с принципами этики ИИ, которые будут особенно важны для остальной части этого дискурса.

Заявление об ИИ

Давайте удостоверимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ.

У нас этого нет.

Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой Сингулярностью, см. мое освещение на ссылка здесь).

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение и глубокое обучение, которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

Частично проблема заключается в нашей тенденции антропоморфизировать компьютеры и особенно ИИ. Когда кажется, что компьютерная система или ИИ действуют так, как мы ассоциируем с человеческим поведением, возникает почти непреодолимое желание приписать системе человеческие качества. Это обычная ментальная ловушка, которая может поймать даже самого непримиримого скептика в отношении шансов на обретение разума.

В какой-то степени именно поэтому этика ИИ и этический ИИ являются такой важной темой.

Предписания этики ИИ заставляют нас сохранять бдительность. Технологи ИИ могут время от времени увлекаться технологиями, особенно оптимизацией высоких технологий. Они не обязательно учитывают более крупные социальные последствия. Имея отношение к этике ИИ и применяя его неотъемлемо к разработке и внедрению ИИ, жизненно важно для создания надлежащего ИИ, включая оценку того, как этика ИИ принимается фирмами.

Помимо использования принципов этики ИИ в целом, возникает соответствующий вопрос о том, должны ли мы иметь законы, регулирующие различные виды использования ИИ. На федеральном уровне, уровне штатов и на местном уровне обсуждаются новые законы, касающиеся диапазона и характера разработки ИИ. Усилия по разработке и принятию таких законов носят постепенный характер. Этика ИИ служит, по крайней мере, временной мерой и почти наверняка в какой-то степени будет непосредственно включена в эти новые законы.

Имейте в виду, что некоторые категорически утверждают, что нам не нужны новые законы, касающиеся ИИ, и что наших существующих законов достаточно. Они предупреждают, что если мы примем некоторые из этих законов об ИИ, мы убьем золотого гуся, пресекая достижения в области ИИ, которые предлагают огромные социальные преимущества. См., например, мое покрытие на ссылка здесь.

В предыдущих колонках я рассказывал о различных национальных и международных усилиях по разработке и принятию законов, регулирующих ИИ, см. ссылка здесь, Например. Я также рассмотрел различные принципы и руководства по этике ИИ, которые были определены и приняты различными странами, включая, например, усилия Организации Объединенных Наций, такие как свод этических норм ИИ ЮНЕСКО, принятый почти в 200 странах, см. ссылка здесь.

Вот полезный краеугольный список критериев или характеристик этического ИИ, касающихся систем ИИ, которые я ранее внимательно изучал:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Эти принципы этики ИИ должны серьезно использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как уже подчеркивалось здесь, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна быть осведомлена и соблюдать этические предписания ИИ.

Давайте не будем приземляться и сосредоточимся на сегодняшнем вычислительном неразумном ИИ.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Я считаю, что теперь я подготовил почву для достаточного обсуждения роли ИИ как средства оперативной психологической прививки, связанной с противодействием дезинформации и дезинформации.

Проникновение в сознание людей

Давайте начнем с основ или основ, лежащих в основе дезинформации и дезинформации.

Как правило, дезинформация относится к ложной или вводящей в заблуждение информации.

Дезинформация примерно такая же, но состоит из добавленного элемента намерение. Обычно мы истолковываем информацию как дезинформацию, когда это информация предназначенных дезинформировать.

Я мог бы сказать вам, что сейчас 10 часов вечера, что, скажем так, неверно, потому что на самом деле полночь. Если бы я сказал вам 10 часов как предчувствие и не пытался обмануть, мы бы обычно сказали, что я дезинформировал вас. Я передал дезинформацию. Может быть, я был ленив, или, может быть, я действительно верил, что сейчас 10 часов. С другой стороны, если бы я упомянул 10 часов, потому что намеренно хотел ввести вас в заблуждение, заставив вас думать, что сейчас 10 часов и что я знал, что на самом деле полночь, это можно было бы назвать формой дезинформации. .

Одним примечательным аспектом информации в целом является то, что обычно мы способны распространять информацию, и поэтому информация может стать несколько широко распространенной. Информация действительно может течь, как вода, в широком смысле.

Я говорю вам, это 10 часов вечера. Теперь у вас есть эта конкретная информация. Вы можете громко крикнуть группе людей поблизости, что сейчас 10 часов вечера. Теперь у них есть такая же информация. Возможно, некоторые из этих людей берут свои сотовые телефоны и звонят другим людям, чтобы сказать им, что сейчас 10 часов. В общем, информация может распространяться или делиться, и иногда это делается очень быстро, а иногда очень медленно.

В некотором смысле вы могли бы утверждать, что информация может стать вирусной.

Существует придуманное слово или терминология, которые вы, возможно, не видели и не использовали, которые помогают описать феномен распространения информации как вируса. инфодемический. Это слово представляет собой смесь информации и эпидемии. По большому счету инфодемия связана с обстоятельствами, связанными с распространением дезинформации или дезинформации. Идея состоит в том, что ложная или вводящая в заблуждение информация может стать вирусной, что нежелательно, подобно нежелательному распространению болезни или болезней.

В примере о том, что время было 10 часов вечера, этот кажущийся факт был частью информации, которая была распространена среди ближайшей группы людей. Они, в свою очередь, распространяют этот факт среди других. Если 10 часов были подделкой, то этот конкретный случай дезинформации или дезинформации был распространен на многих других. Они могут не знать, что информация была дезинформацией или, возможно, дезинформацией.

Я верю, что все эти определения и основы кажутся разумными, и вы до сих пор согласны.

Отлично, продолжим.

Я несколько тайком привел вас к чему-то, что вызывает большое восхищение, а также тревогу. Суть в том, что, возможно, существуют разумные параллели между вирусным действием болезней и вирусным действием дезинформации или дезинформации.

Не все согласны с этими заявленными параллелями. Тем не менее, они интересны и заслуживают внимания.

Позвольте мне уточнить.

Видите ли, мы можем попытаться использовать удобную аналогию со ссылкой на болезни, переносимые человеком, и болезни, которые распространяются, чтобы сравнить подобную возможность с распространением ложной информации и дезинформации. Чтобы попытаться остановить распространение болезней, мы можем стремиться к раннему обнаружению и сдерживанию возникающих болезней, являющихся источником потенциального распространения болезни. Другим подходом к борьбе с распространяющимся заболеванием может быть защита от его заражения путем разумного использования маски или защитного снаряжения. Третий подход может состоять в том, чтобы сделать прививки, чтобы попытаться укрепить свой иммунитет, связанный с болезнью.

Теперь мы прошли полный круг в том, что те же подходы к борьбе с болезнями можно явно уподобить борьбе с ложной информацией и дезинформацией. Ранее я упоминал, что предпринимаются аналогичные усилия по использованию искусственного интеллекта в целях борьбы с дезинформацией и дезинформацией, в частности (как упоминалось ранее):

  • Остановитесь на старте: ИИ можно использовать для обнаружения и устранения дезинформации и неверных сведений до того, как они выйдут на свободу.
  • Фильтр перед просмотром: ИИ можно использовать для фильтрации дезинформации и дезинформации, чтобы вам не нужно было беспокоиться о том, что вы ее увидите.
  • Подготовьте себя к иммунитету: ИИ можно использовать для повышения вашей готовности и способности бороться с дезинформацией и неверными сведениями (формально известными как своего рода психологическая прививка).
  • Другие контрактные услуги

Наибольший интерес здесь будет представлять третий аспект.

Вот сделка.

Мы знаем, что болезни обычно поражают человеческого тела. По аналогии с тем, как возникают ложная информация и дезинформация, мы могли бы предположить, что нечестная информация наносит удар по человеческий разум. Да, вы, предположительно, можете соприкоснуться с дезинформацией или дезинформацией, которая течет в ваш разум. Дезинформация или недостоверная информация потенциально искажают или отравляют ваш образ мышления.

Человеческий организм может быть вакцинирован, чтобы попытаться подготовиться к контакту с болезнями. Возникает большой вопрос, можем ли мы сделать то же самое для человеческого разума. Можно ли попытаться привить разум так, чтобы, когда дезинформация или дезинформация приходят к вам в голову, вы были готовы к этому и были привиты соответствующим образом?

Область исследования, известная как психологическая прививка постулирует, что разум действительно может быть привит в том смысле, что он готов справляться с дезинформацией или дезинформацией.

Рассмотрим это описание в недавнем исследовании, посвященном психологической прививке и тому, что иногда называют действием. предварительная подсыпка:

  • «Опровержение дезинформации также проблематично, потому что исправление дезинформации не всегда полностью сводит на нет ее последствия, явление, известное как эффект продолжающегося влияния. Соответственно, в отличие от разоблачения, предварительное разоблачение приобрело известность как средство упреждающего повышения устойчивости к ожидаемому воздействию дезинформации. Этот подход обычно основан на теории прививок. Теория прививок следует аналогии с медицинской иммунизацией и утверждает, что можно создать психологическую устойчивость против нежелательных попыток убеждения, подобно тому, как медицинские прививки создают физиологическую устойчивость против патогенов».Наука развивается, 24 августа 2022 г., «Психологическая прививка повышает устойчивость к дезинформации в социальных сетях» (соавторы Джон Рузенбек, Сандер ван дер Линден, Бет Голдберг, Стив Ратье и Стефан Левандовски).

Возвращаясь к моему примеру о 10 часах ночи, предположим, что я ранее говорил вам, что иногда заявленное время не является реальным временем. Отныне у вас есть форма прививки, чтобы опасаться заявленных времен. Эта прививка подготовила вас к соприкосновению с заявленными временами, которые являются дезинформацией или дезинформацией.

Если бы я несколько лет назад предупредил вас о том, что заявленное время не является реальным временем, есть вероятность, что вы не подумали бы об этом давнем предупреждении. Таким образом, прежняя прививка (скажем так) сошла на нет. Мою прививку для тебя, возможно, нужно усилить.

Существует также вероятность того, что прививка не была достаточно специфичной, чтобы вы могли использовать ее, когда это было необходимо. Если бы я несколько лет назад предупредил вас о заявленном времени по сравнению с фактическим временем, это могло бы быть слишком общим. Прививка может не сработать в конкретном случае, когда вам говорят около 10 часов. В этом смысле, возможно, моя прививка должна была заключаться в том, что вы должны быть осторожны, когда используется заявленное время 10 часов. Конечно, прививки в случае болезней в чем-то похожи, иногда они очень специфичны для известных болезней, а в других случаях представляют собой широкий спектр.

Часто цитируемое исследование психологической прививки, проведенное в 1961 году Уильямом Макгуайром из Колумбийского университета, в настоящее время считается классикой в ​​этой области исследований. Вам могут быть интересны следующие ключевые моменты, которые он сделал в то время:

  • «Такая всеобщая иммунизация может происходить по любому из двух механизмов. Предварительное разоблачение может шокировать человека, заставив его осознать, что «трюизмы», которые он всегда принимал, действительно уязвимы, тем самым спровоцировав его на выработку защиты своей веры, в результате чего он станет более устойчивым к веским контраргументам, когда они приходят. В качестве альтернативы, опровержения, связанные с предварительным разоблачением, могут сделать все впоследствии представленные контраргументы против убеждения менее впечатляющими» (Уильям МакГуайр, «Сопротивление убеждению, присуждаемое активным и пассивным предварительным опровержением того же самого и альтернативных контраргументов», Journal of Abnormal and Alternative Counterarguments). Социальная психология, 1961).

Считаете ли вы эту аналогию с прививками и иммунизацией полезным и уместным сравнением с царством дезинформации и дезинформации?

Некоторые делают, некоторые нет.

Для целей этого обсуждения, пожалуйста, примите, что посылка разумна и уместна.

Как мы должны попытаться привить или иммунизировать умы людей?

Мы могли бы заставить людей читать книги, которые могли бы просветить их умы. Мы можем рассказать им об этом, попросить посмотреть видео или прослушать аудиозаписи. И т.п.

И мы могли бы использовать ИИ, чтобы сделать то же самое.

В качестве прививки может быть разработана система искусственного интеллекта. Всякий раз, когда вы начинаете выходить в интернет, например, заглядываете в Интернет, приложение на основе ИИ может подготовить вас к онлайн-путешествию. ИИ может накормить вас крошечным количеством дезинформации, которая помечена как таковая, позволяя вам понять, что вы собираетесь увидеть что-то намеренно ложное.

После воздействия этой дезинформации, подаваемой искусственным интеллектом, ваш разум теперь готов справиться с дезинформацией или дезинформацией, с которой вы можете столкнуться в дикой природе в Интернете. Ваш разум был подготовлен. Вуаля, вы видите блог в Интернете, который предлагает заявленный факт, что инопланетные существа с Марса уже здесь, на Земле, и прячутся у всех на виду, но эта кажущаяся дезинформация или дезинформация легко отвергается вашим разумом из-за предварительной прививки (ну, опять же, может быть, это правда и они действительно здесь!).

В любом случае, я надеюсь, что теперь вы в состоянии понять, как ИИ может помочь привить или иммунизировать людей в отношении дезинформации или дезинформации.

Разрабатываются различные приложения ИИ, которые будут действовать как дезинформация или прививки дезинформации. ИИ может стремиться обеспечить прививку, которая является широкой и обеспечивает общее подобие иммунизации. ИИ также может быть разработан для более специфических форм прививки. Кроме того, ИИ может работать на персонализированной основе, настроенной на ваши конкретные потребности или интересы. Усовершенствованный ИИ в этом пространстве также попытается определить ваш уровень терпимости, скорость умственного поглощения, способность удержания и другие факторы при составлении и представлении так называемых прививок для иммунизации.

Кажется довольно удобным.

ИИ как игрок в опасные интеллектуальные игры

ИИ, используемый таким образом, на первый взгляд может показаться довольно удобным (эй, я упоминал об этом всего секунду назад).

Существует множество потенциальных недостатков и проблем, которые вызывают беспокойство и, возможно, пугают.

В своих колонках я часто обсуждаю возможности ИИ двойного назначения, например см. ссылка здесь. ИИ может внести жизненно важный вклад в развитие человечества. Увы, ИИ также обременен множеством опасностей и досадных ловушек.

В случае использования ИИ в качестве инкубатора давайте рассмотрим следующие демонстрационные вопросы, связанные с этикой ИИ:

  • Побочные реакции человека
  • Неотзывчивые реакции людей
  • Неверный таргетинг ИИ
  • Недостаточный таргетинг ИИ
  • Кибервзлом ИИ
  • Другие контрактные услуги

Мы кратко рассмотрим эти проблемы.

Побочные реакции человека

Предположим, что у человека, получающего такую ​​прививку на основе ИИ, возникает неблагоприятная реакция или возникает неблагоприятный эффект.

Человек может неправильно истолковать иммунизацию и внезапно стать невосприимчивым к любой информации, которую он получает. Они блокируют всю информацию. ИИ каким-то образом спровоцировал их выплескивание ребенка вместе с водой из ванны (старая поговорка, от которой, возможно, стоит отказаться). Вместо того, чтобы просто пытаться справиться с дезинформацией и дезинформацией, человек отреагировал, решив, что вся информация всегда ложна.

Я не думаю, что мы хотим, чтобы люди выходили за борт.

Существует множество побочных реакций, которые может вызвать ИИ. Частично это связано с тем, как ИИ пытался провести прививку, но также мы должны возложить часть проблемы на плечи человека, получившего прививку. Они могли отреагировать дико или причудливо на то, что другие, получившие такую ​​же прививку ИИ, не сделали этого.

Опять же, вы можете уподобить это аналогии с прививками от болезней.

Короче говоря, важно, чтобы при использовании таких усилий ИИ они проводились ответственным образом, стремясь свести к минимуму неблагоприятные последствия. Должен также быть последующий аспект ИИ, чтобы попытаться установить, произошла ли неблагоприятная реакция. Если обнаружена неблагоприятная реакция, следует разработать ИИ, чтобы попытаться помочь человеку в его неблагоприятной реакции и попытаться преодолеть или смягчить реакцию.

Неотзывчивые реакции людей

Другая возможность заключается в том, что прививка, вскармливаемая искусственным интеллектом, не влияет на принимающего человека.

Человек получает основанную на ИИ прививку, связанную с дезинформацией или дезинформацией. В то время как большинство людей «заболевают» и получают прививки, обязательно найдутся люди, которые вообще не отреагируют. Они ничего не узнают из прививки. Они не реагируют на попытки ИИ защитить их от всех или определенных типов дезинформации или дезинформации.

Опять же, это сравнимо с прививками от болезней.

ИИ должен быть разработан, чтобы бороться с такими обстоятельствами.

Неверный таргетинг ИИ

Представьте, что ИИ надеется иммунизировать людей в отношении определенной темы, которую мы скажем, как тему X, но оказывается, что вместо этого освещается тема Y. ИИ ошибается.

Это двоякая проблема. Во-первых, тема X тогда не рассматривалась как предполагаемая и ожидаемая цель прививки ИИ. Во-вторых, тема Y освещается, но мы, возможно, не хотели, чтобы люди были иммунизированы по этой теме.

К сожалению.

Вопросов предостаточно. Можно ли было предотвратить это? Если это произойдет, можем ли мы отменить тему Y-иммунизации? Можем ли мы попытаться охватить тему прививки X, или человек будет менее восприимчивым или невосприимчивым из-за неправильного нацеливания ИИ изначально?

Возникает множество проблемных вопросов.

Недостаточный таргетинг ИИ

ИИ делает прививку по теме Z. У людей, получающих прививку, реакция минимальна или почти незначительна. Прививки было недостаточно, чтобы закрепиться.

У вас может возникнуть соблазн быстро заявить, что это легко решить. Все, что вам нужно сделать, это повторить прививку. Может быть да, а может быть и нет.

Прививка ИИ может иметь настолько ограниченную ценность, что независимо от того, заставите ли вы людей испытать ее сто раз, результат все равно будет незначительным. Возможно, вам придется усилить прививку, а не просто повторить ее.

Между тем, представьте, что делается попытка усилить прививку от искусственного интеллекта, но это выходит за рамки. Усиленная версия вызывает гиперреакцию. Yikes, мы пришли от плохого к худшему.

Киберпрорыв ИИ

Представьте себе, что ИИ широко используется, чтобы помочь людям защититься от дезинформации и дезинформации.

Общее доверие овладевает людьми. Они знают и ожидают, что ИИ предоставит им фрагменты, которые откроют им глаза на то, что известно как дезинформация и дезинформация.

Все хорошо, вроде бы.

Злоумышленник каким-то образом может взломать ИИ. Они тайно вводят в ИИ некоторую желаемую дезинформацию, которую они хотят, чтобы люди думали, что это не дезинформация. ИИ устроен таким образом, чтобы фактическая дезинформация выглядела как истинная информация. Кроме того, правдивая информация выдается за дезинформацию.

Люди совсем запутались. Их дезинформирует ИИ. Вдобавок ко всему, из-за того, что они стали зависеть от ИИ и из-за веры в то, что ИИ поступает правильно, они попадаются на крючок, леску и грузило для этого сломанного ИИ. Без промедления.

Учитывая, насколько легко дезинформация может распространяться дальше, злоумышленник может наслаждаться тем, что существование такого типа ИИ — самый простой и быстрый способ распространить свою коварную ложь по всему миру. По иронии судьбы, конечно, используя прививку ИИ для распространения болезни.

Заключение

Должны ли мы, чтобы ИИ играл с нами в интеллектуальные игры?

Может ли ИИ для дезинформации и прививки дезинформации быть грозным троянским конем?

Вы можете привести серьезные основания для беспокойства по поводу такого кошмара.

Другие насмехаются над такой возможностью. Люди достаточно умны, чтобы понимать, когда ИИ пытается их обмануть. Люди не поведутся на такую ​​чепуху. Только идиоты могут ввести себя в заблуждение таким ИИ. Это обычные возражения и контраргументы.

Не желая показаться менее чем полностью восхищающимся людьми и человеческой природой, я просто предположил бы, что существует достаточно признаков того, что люди могут попасться на ИИ, который вводит их в заблуждение.

Есть еще большая проблема, которая, возможно, нависает над всем этим.

Кто создает ИИ и как ИИ алгоритмически решает, что считать дезинформацией и дезинформацией?

Сегодня в мире идет целая перестрелка по поводу того, что конкретно представляет собой дезинформация и дезинформация. Некоторые утверждают, что факты есть факты, поэтому не может быть никакой путаницы в том, что такое верная информация, а какая неверная. Дьявол иногда кроется в деталях, это точно.

Последнее замечание на данный момент. Авраам Линкольн однажды сказал: «Можно обманывать всех людей некоторое время и некоторых людей все время, но вы не можете обманывать всех людей все время».

Будет ли ИИ, который используется для помощи в защите человечества от дезинформации и дезинформации, жизненно важным инструментом для обеспечения того, чтобы не всех людей можно было постоянно обманывать? Или это может быть использовано, чтобы чаще обманывать людей?

Время покажет.

И это точно не дезинформация и не дезинформация.

Источник: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/