Этика ИИ и закон об ИИ глубоко нарушены из-за того, что ИИ мошенническим образом повлиял на выборы или подорвал их

Выборы жизненно важны для демократии.

Вспомните известные слова Джона Куинси Адамса, почитаемого дипломата и шестого президента Соединенных Штатов (6–1825), в которых он красноречиво заявил: «Всегда голосуйте за принципы, хотя вы можете голосовать в одиночку, и вы можете лелеять самые приятные мысли о том, что ваш голос никогда не теряется».

Голосование необходимо, и им нужно дорожить.

Когда дело доходит до выборов, мы стремимся к тому, чтобы избиратели могли голосовать без унизительного принуждения в отношении того, какой выбор они делают как избиратели. Они должны голосовать так, как решит их свободный разум. Ваш голос - это ваш голос, и только ваш голос.

Кроме того, акт голосования и процесс голосования должны надлежащим образом учитывать фактические голоса избирателей. Если система голосования не будет точно регистрировать и подсчитывать истинные голоса избирателей, у нас больше не будет возможности узнать волю народа. Мы также, несомненно, сомневаемся в результатах процесса голосования, и все сказанное страдает от ослабления твердой веры в нашу демократию.

Согласно резкому и тревожному замечанию Иосифа Сталина: «Люди, которые голосуют, не решают выборы, это делают люди, которые подсчитывают голоса».

Подводя итог, у нас есть те, кто голосует, а именно избиратели, и у нас должна быть действующая система голосования, которая подсчитывает голоса, выстроенные таким образом, чтобы упорядоченно проводить свободные и честные выборы. Если каким-то образом избиратели коррумпированы, у нас возникает опасная проблема, которая подрывает нашу демократию. Если система голосования каким-то образом коррумпирована, у нас также возникает опасная проблема, которая подрывает нашу демократию.

Все это кажется, пожалуй, довольно очевидным.

Нас ежедневно заваливают противоречивыми комментариями и ругательствами о том, что избирателей якобы «коррумпируют» или что система голосования подозревается в коррумпированности. По поводу фальсификаций при голосовании сыпется множество как аргументированных, так и неаргументированных обвинений. Безусловно, очень важно попытаться предотвратить такое мошенничество, которое может привести к коррупции на наших выборах. Никаких сомнений насчет этого.

Один аспект, который пока не заслуживает особого внимания, но который будет постепенно увеличиваться в своей видимости и распространении, состоит из развращающего влияния, о котором сегодня мало кто особенно осведомлен.

Готовы ли вы?

Искусственный интеллект (ИИ).

Да, ИИ можно использовать для подрыва позиций избирателей, а также для подрыва наших систем голосования. Появление широко распространенных компьютеров, таких как наши смартфоны и Интернет, обеспечивает средство для использования ИИ, чтобы изменить или потенциально сломать наши аспекты выборов. Мы должны осознавать, что по мере того, как ИИ продолжает создаваться и внедряться в наши повседневные системы, этот самый выгодный ИИ может быть обращен в более зловещую сторону использования.

Для моего освещения того, что обычно называют двойное назначение ИИ, состоящий из ИИ, который, с одной стороны, предлагает огромные преимущества и в то же время может быть перенесен на так называемые усилия доктора Зла, см. ссылка здесь.

Важно отметить, что ИИ действительно может принести значительную пользу нашим выборам. Избиратели потенциально могут использовать ИИ, чтобы помочь понять проблемы, с которыми они сталкиваются при голосовании. ИИ может служить средством изучения плюсов и минусов социальных тем, по которым проводится голосование. ИИ можно использовать в системах голосования, чтобы попытаться улучшить процесс голосования, например, упростить процесс голосования или побудить людей с готовностью отдать свой голос.

Получите плюс один за ИИ в голосовании и выборах.

К сожалению, нам тоже нужно быть начеку и набирать минус один за ИИ на голосовании и выборах.

Как я знаю?

Я кратко расскажу вам о множестве способов использования ИИ для подрыва избирателей и систем голосования. Это может показаться обескураживающим, и у вас может возникнуть соблазн предположить, что, возможно, нам не следует говорить о таких вещах. В общем и целом, подход с головой в песок к неблагоприятным последствиям ИИ — неразумный путь. Нам будет лучше, если мы обсудим и активно разоблачим недостатки ИИ в нашем обществе. Поступая таким образом, у нас больше шансов справиться с таким ИИ, и мы стремимся свести к минимуму или смягчить ловушки ИИ.

ИИ в среде голосования — еще одна проблема для тех, кто особенно интересуется этикой ИИ и законом об ИИ. Область этики ИИ фокусируется на этических и моральных элементах, связанных с появлением ИИ. Сфера Закона об ИИ в этом контексте, как правило, концентрируется на управлении ИИ, задавая вопрос, достаточно ли наши существующие законы соответствуют задаче справиться с появлением ИИ, и предлагая новые законы, специфичные для ИИ, когда новые правовые положения потребуются. Мой обширный и постоянный анализ этики ИИ и закона об ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Я думаю, что полезно рассмотреть две основные точки зрения на ИИ в сфере выборов:

(1) ИИ, который приносит пользу выборам и помогает как избирателям, так и нашим системам голосования.

(2) ИИ, который подрывает и потенциально развращает как избирателей, так и наши системы голосования.

В сегодняшнем обсуждении я собираюсь в основном оценить последнюю из этих двух категорий. Ранее я упоминал о преимуществах искусственного интеллекта, вызывающих демократию, в некоторых своих сообщениях, поэтому сейчас своевременно и полезно взглянуть на другую сторону медали.

Это будет некрасиво. Демократически ядовитое или токсичное для выборов использование ИИ сомнительно и тревожно коварно. Тем не менее было бы упущением игнорировать или обесценивать его. Разоблачение того, как ИИ может нанести ущерб нашему голосованию, заслуживает пристального внимания. ИИ может служить своего рода доктором Злом, чтобы узурпировать наши свободные и честные выборы, что является проблемой, которую мы должны полностью осознать.

Давайте продолжим и раскроем неблагоприятные способы, которыми ИИ может существенно испортить наши выборы, и посмотрим, что мы можем из этого сделать.

Я хотел бы сначала заложить некоторые важные основы об ИИ и, в частности, об этике ИИ и законах об ИИ, сделав это, чтобы убедиться, что обсуждение будет контекстуально разумным.

Растущее осознание этического ИИ, а также закона об ИИ

Недавняя эра ИИ изначально рассматривалась как AI для хорошего, а это означает, что мы могли бы использовать ИИ для улучшения человечества. По пятам AI для хорошего пришло осознание того, что мы тоже погружены в AI для плохих. Это включает в себя ИИ, который разработан или самоизменен, чтобы быть дискриминационным, и делает вычислительный выбор, наполняющий неправомерными предубеждениями. Иногда ИИ устроен таким образом, а в других случаях он сворачивает на эту неблагоприятную территорию.

Я хочу полностью убедиться, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели порассуждать о разумном ИИ, эта дискуссия могла бы пойти в совершенно другом направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхинтеллектуальный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Я бы настоятельно рекомендовал, чтобы мы не придавали значения вещам и рассматривали сегодняшний вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

Будьте очень осторожны с антропоморфизацией современного ИИ.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Все это имеет особенно важные последствия для этики ИИ и предлагает удобное окно для извлеченных уроков (даже до того, как все уроки произойдут), когда дело доходит до попытки законодательно закрепить ИИ.

Помимо использования принципов этики ИИ в целом, возникает соответствующий вопрос о том, должны ли мы иметь законы, регулирующие различные виды использования ИИ. На федеральном уровне, уровне штатов и на местном уровне обсуждаются новые законы, касающиеся диапазона и характера разработки ИИ. Усилия по разработке и принятию таких законов носят постепенный характер. Этика ИИ служит, по крайней мере, временной мерой и почти наверняка в какой-то степени будет непосредственно включена в эти новые законы.

Имейте в виду, что некоторые категорически утверждают, что нам не нужны новые законы, касающиеся ИИ, и что наших существующих законов достаточно. Они предупреждают, что если мы примем некоторые из этих законов об ИИ, мы убьем золотого гуся, пресекая достижения в области ИИ, которые предлагают огромные социальные преимущества.

В предыдущих колонках я рассказывал о различных национальных и международных усилиях по разработке и принятию законов, регулирующих ИИ, см. ссылка здесь, Например. Я также рассмотрел различные принципы и руководства по этике ИИ, которые были определены и приняты различными странами, включая, например, усилия Организации Объединенных Наций, такие как свод этических норм ИИ ЮНЕСКО, принятый почти в 200 странах, см. ссылка здесь.

Вот полезный краеугольный список критериев или характеристик этического ИИ, касающихся систем ИИ, которые я ранее внимательно изучал:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Предполагается, что эти принципы этики ИИ должны серьезно использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ.

Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как уже подчеркивалось здесь, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна быть осведомлена и соблюдать этические предписания ИИ.

Я тоже недавно осматривал ИИ Билль о правах таково официальное название официального документа правительства США под названием «План Билля о правах ИИ: заставить автоматизированные системы работать на благо американского народа», который стал результатом многолетних усилий Управления научно-технической политики (OSTP). ). OSTP — это федеральная организация, которая консультирует американского президента и администрацию США по различным технологическим, научным и инженерным аспектам государственной важности. В этом смысле можно сказать, что этот Билль о правах ИИ является документом, одобренным и одобренным существующим Белым домом США.

В Билле о правах ИИ есть пять ключевых категорий:

  • Безопасные и эффективные системы
  • Алгоритмическая защита от дискриминации
  • Конфиденциальность данных
  • Уведомление и объяснение
  • Человеческие альтернативы, рассмотрение и отступление

Я внимательно изучил эти заповеди, см. ссылка здесь.

Теперь, когда я заложил полезную основу для этих связанных тем, связанных с этикой ИИ и законом об ИИ, мы готовы перейти к опрометчивой теме ИИ, который подрывает избирателей и системы голосования.

ИИ в голосовании вызывает растущее внимание и возможную озабоченность

В контексте голосования мы знаем, что нам нужно быть бдительными в отношении множества проблематичных заболеваний, таких как фальсификация выборов, манипулирование выборами, мошенничество с избирателями, фальсификация результатов голосования, подавление избирателей, фальсификация результатов голосования и тому подобное.

Существует множество традиционных способов, не связанных с искусственным интеллектом. избирателей могут быть «испорчены», и что наш системы голосования может быть поврежден. Постоянная осведомленность о проблемах, связанных с избирателями и системами голосования, имеет решающее значение для выявления проблем до того, как будет причинен вред. После причинения вреда, если таковой имел место, нам необходимо осознать, что произошло, и попытаться устранить последствия причиненного вреда.

Сейчас мы приступаем к добавлению ИИ в эклектичный микс.

Таким образом, у вас есть все традиционные методы подтасовки выборов, и в качестве своеобразного «бонуса» (не вкусного) мы теперь шлепаем ИИ поверх этого болота. Если мы необоснованно переключим наше внимание на методы подтасовки выборов с помощью ИИ, мы можем непреднамеренно позволить процветать традиционным подходам, не связанным с ИИ. Не делай этого.

Мы должны быть зоркими изоферменты печени:

1) Обычные не-ИИ методы подтасовки выборов

2) Способы ИИ подтасовывать выборы

Просто хотел убедиться, что мы не слишком влюбляемся в новые блестящие способы искусственного интеллекта. Борьба за обнаружение и пресечение коррупции на выборах должна вестись как на суше, так и на море, используя как традиционные подходы, не связанные с ИИ, так и более новые подходы, основанные на ИИ.

Как упоминалось ранее здесь, я не собирается разобраться с понятием разумный ИИ что может испортить наши выборы. Это была бы настоящая кроличья нора, в которую можно было бы нырнуть. Появятся дикие предположения. Например, предположим, что мы наделяем ИИ добросовестной юридической личностью. Имеет ли ИИ право голоса? Получит ли ИИ только один голос, как если бы он был наравне с одним человеческим голосом, или нам нужно будет выделить какое-то существенное количество «голосов» системе ИИ, чтобы гарантировать, что она будет должным образом представлена? Может ли ИИ попытаться обмануть и проголосовать более одного раза или больше, чем разрешено? И т.п.

Эта карусель продолжается и продолжается.

В этом дискурсе я придерживаюсь неразумного ИИ.

Сегодняшний неразумный ИИ не получает права голоса (ну, некоторые ученые мужи не согласны, см. ссылка здесь). Я понимаю, что существуют всевозможные спекуляции о том, что неразумный ИИ обретает хоть каплю статуса юридического лица, о чем я рассказывал в своих работах, но прямо сейчас это не входит в планы, и поэтому я не буду об этом говорить. это обсуждение.

Мы собираемся предположить для разумности, что легитимные избиратели должен будь человеком.

Мы также можем предположить, что системы голосования скорее всего, это смесь людей и компьютерной автоматизации, которая работает для подсчета голосов и составления отчетов о них на выборах.

Рассмотрим эти возможности:

  • ИИ используется на законных основаниях для поддержки избирательной деятельности избирателей и систем голосования.
  • ИИ используется сомнительным с этической точки зрения образом в отношении предвыборной деятельности избирателей и систем голосования.
  • ИИ используется откровенно неэтичным образом в отношении предвыборной деятельности избирателей и систем голосования.
  • ИИ используется заведомо незаконным образом в отношении предвыборной деятельности избирателей и систем голосования.

Среди этих возможностей может быть довольно размытие.

Возьмем, к примеру, использование чат-ботов с искусственным интеллектом.

Предположим, что кто-то, желающий быть избранным, использует чат-ботов на основе ИИ. Чат-боты запрограммированы так, чтобы они выглядели как люди на платформе социальных сетей. Каждый из чат-ботов ИИ придумывает нормально выглядящее имя и, по-видимому, является человеком в том смысле, что повествования, генерируемые ИИ, имеют человеческие качества в формулировках. Предположим, что нет очевидных способов определить, было ли повествование написано человеком, могло ли оно быть имитацией того, что написал человек, или могло быть сгенерированным текстом, который был разработан программно так, чтобы выглядеть так, как если бы он был написан человеком.

Люди-избиратели, пытающиеся решить, голосовать ли за кандидата или вместо этого голосовать за оппонента, подвергаются суммарной бомбардировке болтовней чат-бота с искусственным интеллектом. Судя по всему, кажется, что тысячи и тысячи «людей» столь же открыто и громко голосуют за кандидата, в то время как тысячи и тысячи «людей» также жестоко громят оппонента.

Я спрашиваю вас, в какой из вышеупомянутых областей или возможностей находится этот сценарий?

Ваш выбор состоит в том, что это законно, или это погранично этично, полностью неэтично или возмутительно незаконно.

Выбирай.

В целом, вот официальная позиция ФБР в отношении преступлений, связанных с выборами: «Честные выборы — основа нашей демократии, и ФБР привержено защите прав всех американцев голосовать. Правительство США работает только тогда, когда подсчитываются законные голоса и когда кампании следуют закону. Когда легитимность выборов коррумпирована, наша демократия находится под угрозой. Пока в отдельных штатах проводятся выборы, ФБР играет важную роль в защите федеральных интересов и предотвращении нарушений ваших конституционных прав. Преступление, связанное с выборами, как правило, является федеральным преступлением, если: (1) бюллетень включает одного или нескольких федеральных кандидатов, (2) должностное лицо на выборах или избирательном участке злоупотребляет своим служебным положением, (3) поведение связано с ложной регистрацией избирателей, (4) преступление преднамеренно нацелена на классы, защищаемые меньшинствами, или (5) деятельность нарушает федеральные законы о финансировании избирательных кампаний» (согласно онлайн на веб-сайте ФБР в разделе «Преступления на выборах и безопасность»).

Вероятно, вам будет трудно утверждать, что использование чат-ботов с искусственным интеллектом было однозначно незаконным. При этом обратите внимание, что государственные и местные законы пытались охватить такие методы ИИ. Выдержат ли они юридическую проверку, пока не совсем ясно. Также предпринимаются попытки отразить это в федеральных законах, связанных с ИИ.

На данный момент предположим, что это конкретное использование этих чат-ботов ИИ не является незаконным (в данном контексте, в то время как другие контексты могут сильно отличаться). Затем мы приземляемся на вопрос, этично это или нет. Если вы утверждаете, что это неэтично, переходит ли эта практика в абсолютно неэтичную или она больше похожа на пограничную этическую границу?

Скорее всего, кандидат, использующий чат-ботов с искусственным интеллектом, будет категорически настаивать на том, что это, несомненно, законное использование и никоим образом не затрагивает этическую сферу. Они могут настаивать на том, что чат-боты с искусственным интеллектом никогда не заявляли, что они люди. Те, кто видел или получил сообщения, сделали это предположение. Это на них, а не на чат-ботах ИИ.

Короче говоря, кандидат может утверждать, что если избиратели-люди позволят себя обмануть или ввести в заблуждение какой-либо формой дезинформации, пусть будет так. Это на плечах избирателей-людей. На самом деле, кандидат мог бы далее утверждать, что это вовсе не дезинформация. Если сообщаемая информация о позициях кандидатов была достаточно точной, то единственная «изюминка» заключалась в том, что сообщения появлялись много раз. Является ли это дезинформацией или только содержание сообщений подпадает под понятие дезинформации или дезинформации?

Этот сценарий до сих пор, кажется, изображает влияние избирателя и оставляет много серой зоны в отношении ряда вовлеченных этических или юридических вопросов.

Наш нетерпеливый кандидат решает поднять ставки.

Используя ИИ, создается дипфейк, который, кажется, демонстрирует, что противник говорит очень подлые вещи. Я уверен, что вы замечали, насколько продвинутый ИИ справляется с созданием смоделированных версий реальных людей. Это включает в себя внешний вид и манеры людей, таких как определенные знаменитости или другие, а также копирование и способность произносить новые словесные высказывания, которые кажутся принадлежащими этому человеку.

Дипфейк опубликован в социальных сетях. Люди в социальных сетях предпочитают распространять дипфейк. Таким образом, когда вы получаете дипфейк, он исходит не от чат-бота с искусственным интеллектом (хотя это, безусловно, может иметь место), а от доверенного коллеги или друга.

Вы предполагаете, что, поскольку дипфейк исходил от кого-то, кого вы знаете и кому доверяете, он предположительно настоящий. Ой, вы ошибаетесь в этом.

В этом примере, где мы сейчас находимся в ИИ, который используется для предвыборной деятельности?

Законные или сомнительно этичные или неэтичные, полностью неэтичные или явно незаконные.

Вот следующая ситуация, с которой мы можем с некоторым облегчением согласиться, что она абсолютно незаконна.

Разработана система искусственного интеллекта, которая «притворяется» реальными людьми. Он используется для голосования по почте. ИИ подключается к спискам избирателей и выясняет, какие люди, вероятно, не собираются голосовать. От их имени запрашивается бумажный бюллетень. Бумажный бюллетень заполняется через ИИ и отправляется по почте регистратору выборов, как если бы голос был подан реальным человеком.

Думаю, никто не может сказать, что это не что иное, как незаконная предвыборная деятельность.

Голосует ИИ, а не человек.

Не допускается.

Это может быть трудно поймать. Предполагая, что система сдержек и противовесов избирателей, кажется, совпадает, разработанный ИИ может сойти с рук.

Если человек-избиратель, возможно, тоже проголосует самостоятельно, у нас может быть шанс понять, что произошло два голосования, и в этом случае концерт может быть завершен. Однако отследить происхождение мошеннического голосования может быть сложно. Существует также вероятность того, что оба голоса могут быть аннулированы, и, следовательно, голос избирателя-человека будет подорван. Мы можем только надеяться, что, по крайней мере, вероятность голосования ИИ не будет оценена как истинное голосование, в то время как «дублирующее» голосование, поданное людьми, будет сброшено как подделка. Это больно, как двойной удар.

Давайте усложним дело.

Некоторые предполагают, что мы должны целенаправленно разрабатывать ИИ как полезный сервис для голосования. AI-голосование как услуга по вашему желанию поможет вам в голосовании. Вам больше не придется иметь дело с документами для голосования. Вместо этого вы вызываете приложение на основе ИИ, которое представит вам документы для голосования в Интернете и проведет вас через процесс голосования.

ИИ может быть обучен вашим предпочтениям избирателя. Таким образом, вам не нужно смотреть на каждое из утверждений-кандидатов или что-то еще. Нажав кнопку, ИИ проверит весь бюллетень и проголосует за каждого кандидата или предложение, как вы могли бы это сделать. После этого бюллетень готов для просмотра и подписания.

Вы заняты и «верите», что ИИ, вероятно, сделал хорошую работу по выбору вариантов за вас, поэтому вы искренне подписываете бюллетень и одобряете его голосование.

Звучит довольно прикольно.

Конечно, предположим, что ИИ каким-то образом был тайно сфальсифицирован таким образом, что он голосовал за определенных кандидатов или определенные предложения. Вы можете не осознавать, что исправление уже готово. Когда приходит время подписывать и утверждать, вы даже не смотрите и просто предполагаете, что ИИ выполнил вашу волю.

Ты невиновный, которым воспользовались?

Или вы избиратель, который не был прилежным и подорвал свои права голоса?

Известное высказывание Джона Ф. Кеннеди: «Невежество одного избирателя в условиях демократии подрывает безопасность всех».

Да, некоторые отреагируют, это совершенно несправедливо по отношению к избирателю, которого обманул ИИ. Если ИИ был взломан кибербезопасностью, чтобы голосовать способами, о которых избиратель не знал, это мошенническое действие ИИ или действительно создателя ИИ. Нельзя винить избирателя. Другие настаивают на том, что любой избиратель, который соглашается использовать ИИ для помощи в голосовании, должен себе во вред осознавать, что он может узурпировать свой голос.

Переключив передачу, давайте взглянем на ИИ, который подрывает системы голосования.

ИИ может быть разработан для:

  • Трюковые системы голосования
  • Взлом системы голосования
  • Изменить системы голосования
  • Получение контроля над системами голосования
  • Вмешиваться в отчеты из систем голосования
  • Обманывать людей, управляющих системами голосования
  • Помогите людям, которые пытаются совершить мошенничество в системах голосования
  • Другое

Каждый из этих подходов имеет тенденцию сочетать возможности кибербезопасности с использованием ИИ. В этом смысле нам вообще уже по большому счету следует опасаться тех средств совершения киберпреступлений, которые связаны с выборами.

ИИ может сделать киберпреступления более заметными.

Одним из ключевых дополнительных свойств является то, что злоумышленник потенциально может совершать фальсификации результатов выборов, не принимая непосредственного участия. Они могут быть на расстоянии вытянутой руки от виновности. Другой заключается в том, что мошеннику может не понадобиться много знать о том, как совершить коррупцию на выборах как таковую. Они позволяют ИИ делать всю работу за них.

Заключение

Мы неизбежно окажемся в замешательстве из-за заявлений о том, что ИИ использовался для подтасовки наших выборов.

Даже если утверждения в принципе необоснованны, заголовков заявлений о причастности ИИ будет достаточно, чтобы напугать и вызвать благовидные дебаты. Это, в свою очередь, усугубит и без того острые обвинения по поводу проблем с голосованием и предвыборных сомнений.

Опасность также заключается в ободряющем бесправии.

Если избиратели считают, что ИИ каким-то образом помог испортить или исказить избирательную деятельность (независимо от того, обосновано это убеждение или нет), уже одно это может привести к тому, что люди будут голосовать меньше и разочаруются в голосовании в целом. Когда люди больше не верят, что их голоса будут правильно подсчитаны, у них обычно возникает чувство неверия в результаты выборов и демократию.

Франклин Д. Рузвельт указал на важность осведомленности, когда речь идет о наших выборах: «Демократия не может добиться успеха, если те, кто выражает свой выбор, не готовы делать мудрый выбор. Следовательно, настоящая гарантия демократии — это образование».

ИИ будет шаг за шагом проникать в процесс голосования. Вы должны предвидеть, что это будет на основе искусственного интеллекта двойного назначения. Мы можем попытаться использовать ИИ в качестве вспомогательной силы для обеспечения свободных и справедливых выборов. Другие одновременно будут стремиться использовать ИИ как средство искажения наших выборов. Крайне важно, чтобы мы узнали и узнали о том, как ИИ будет участвовать в процессе голосования.

Последний комментарий на данный момент. Я горячо голосую за то, чтобы мы использовали ИИ, чтобы помочь и вдохновить на свободные и честные выборы, в то же время мы по-прежнему бдительны к тем, кто вместо этого хотел бы использовать ИИ для подрыва голосования и нашей демократии.

Я надеюсь, что все проголосуют со мной за это бесспорно жизненно важное положение (кроме, конечно, злодеев, пагубно желающих иного).

Источник: https://www.forbes.com/sites/lanceeliot/2022/11/07/ai-ethics-and-ai-law-deeply-disturbed-by-ai-used-to-fraudulently-influence-or- коррумпированные выборы/