Этика ИИ и закон об ИИ могут подтолкнуть и подтолкнуть к обязательному предупреждению о безопасности для всех существующих и будущих ИИ

Ваша повседневная деятельность, несомненно, бомбардируется тысячей или более предостережений того или иного рода.

Примерьте эти на размер:

  • Защитные очки необходимо носить постоянно
  • Опасно: поблизости находятся опасные химические вещества.
  • Высокое напряжение – не подходить
  • Предупреждение: следите за своим окружением
  • Объекты в зеркале ближе, чем кажутся
  • Удалите ребенка перед складыванием (как указано на детских колясках)
  • Предупреждение: не забудьте проигнорировать это сообщение.

Большинство из них представляют собой удобные и в целом продуманные знаки или ярлыки, которые, как мы надеемся, служат для обеспечения нашей безопасности.

Пожалуйста, имейте в виду, что я убрал из списка несколько «выбросов», чтобы отметить некоторые важные моменты.

Например, некоторые люди считают сумасшедшим, что на детских колясках есть прикрепленная этикетка, которая предупреждает вас о том, что нельзя складывать коляску, пока ребенок все еще сидит внутри приспособления. Хотя знак, безусловно, уместен и по долгу службы полезен, казалось бы, простого здравого смысла уже достаточно.

Какой человек по собственной воле не осознает, что сначала ему нужно забрать ребенка?

Что ж, другие подчеркивают, что такие ярлыки действительно служат важной цели. Во-первых, кто-то может действительно не обращать внимания на то, что им нужно снять ребенка, прежде чем складывать коляску. Возможно, человек предположил, что коляска была продумана таким образом, чтобы операция складывания не навредила ребенку. Или, возможно, есть встроенные функции безопасности, которые предотвращают складывание, когда в коляске находится ребенок. И т.п.

Кроме того, могло случиться так, что человек отвлекся и бездумно сложил коляску, закрыв ребенка и все такое, но этикетка, к счастью, побудила человека не делать этого (некоторые утверждают, что маловероятно, что такой человек заметит этикетку). тем не мение). Есть еще и тот факт, что кто-то мог бы подать в суд на производителя коляски, если бы такой этикетки не было. Вы можете представить себе один из тех крупных судебных процессов, в ходе которых ребенок был ранен, а родитель решил собрать миллион долларов, потому что на коляске не было предупреждающего знака. Компания по производству колясок пожалела бы, что не потратила несколько центов, необходимых для изготовления и наклеивания предупреждающих знаков на свои коляски.

Также внимательно посмотрите на последнее из предупреждений, которые я перечислил выше.

Я решил разместить льстивое сообщение о том, чтобы проигнорировать сообщение, поскольку в наши дни есть много поддельных предупреждающих этикеток, которые люди покупают или делают просто для развлечения. Это настоящий философский умопомрачительный. Если вы прочитали предупреждение, в котором говорится игнорировать предупреждение, что именно вы должны делать после прочтения предупреждения? Вы его уже читали, так что он якобы у вас в голове. Конечно, вы можете игнорировать это, но опять же, вам совершенно не советуют, что именно вы должны игнорировать. Эта шутка ходит по кругу.

Конечно, добросовестные предупреждающие надписи обычно не носят шутливого или юмористического характера.

Мы должны очень серьезно относиться к предупреждениям.

Обычно, если вы не соблюдаете отмеченное предупреждение, вы делаете это, подвергая себя серьезному риску. Также может случиться так, что, если вы не соблюдаете предупреждение, вы потенциально подвергаете других неоправданному риску. Рассмотрим процесс вождения автомобиля. В тот момент, когда вы находитесь за рулем автомобиля, ваши действия в качестве водителя могут нанести вред вам, плюс вы можете нанести вред своим пассажирам, а также другим людям, например, людям в других автомобилях или пешеходам поблизости. В этом смысле предупреждение предназначено не только для вас, но и для других.

Почему я освещаю эти аспекты предупреждений и предупредительных надписей?

Потому что некоторые яростно утверждают, что нам нужны предупреждающие и предостерегающие знаки в отношении сегодняшнего искусственного интеллекта (ИИ).

На самом деле идея состоит в том, чтобы наклеить такие ярлыки на сегодняшний и будущий ИИ. В общем, все ИИ в конечном итоге будут иметь некоторую форму или вариант предупреждения или предостерегающей индикации, связанной с ним.

Хорошая идея или плохая идея?

Практично или непрактично?

Давайте продолжим и раскроем концепцию и посмотрим, что мы можем из нее сделать.

Я хотел бы сначала заложить некоторые важные основы об ИИ, в частности, об этике ИИ и законах об ИИ, сделав это, чтобы убедиться, что тема предупреждений ИИ будет контекстуально значимой. Те из вас, кто в целом интересуется этическим ИИ, а также законом об ИИ, могут ознакомиться с моим обширным и постоянным освещением на ссылка здесь и ссылка здесь, Просто назвать несколько.

Растущее осознание этического ИИ, а также закона об ИИ

Недавняя эра ИИ изначально рассматривалась как AI для хорошего, а это означает, что мы могли бы использовать ИИ для улучшения человечества. По пятам AI для хорошего пришло осознание того, что мы тоже погружены в AI для плохих. Это включает в себя ИИ, который разработан или самоизменен, чтобы быть дискриминационным, и делает вычислительный выбор, наполняющий неправомерными предубеждениями. Иногда ИИ устроен таким образом, а в других случаях он сворачивает на эту неблагоприятную территорию.

Я хочу полностью убедиться, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели порассуждать о разумном ИИ, эта дискуссия могла бы пойти в совершенно другом направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхинтеллектуальный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Я бы настоятельно рекомендовал, чтобы мы не придавали значения вещам и рассматривали сегодняшний вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

Будьте очень осторожны с антропоморфизацией современного ИИ.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Все это имеет особенно важные последствия для этики ИИ и предлагает удобное окно для извлеченных уроков (даже до того, как все уроки произойдут), когда дело доходит до попытки законодательно закрепить ИИ.

Помимо использования принципов этики ИИ в целом, возникает соответствующий вопрос о том, должны ли мы иметь законы, регулирующие различные виды использования ИИ. На федеральном уровне, уровне штатов и на местном уровне обсуждаются новые законы, касающиеся диапазона и характера разработки ИИ. Усилия по разработке и принятию таких законов носят постепенный характер. Этика ИИ служит, по крайней мере, временной мерой и почти наверняка в какой-то степени будет непосредственно включена в эти новые законы.

Имейте в виду, что некоторые категорически утверждают, что нам не нужны новые законы, касающиеся ИИ, и что наших существующих законов достаточно. Они предупреждают, что если мы примем некоторые из этих законов об ИИ, мы убьем золотого гуся, пресекая достижения в области ИИ, которые предлагают огромные социальные преимущества.

В предыдущих колонках я рассказывал о различных национальных и международных усилиях по разработке и принятию законов, регулирующих ИИ, см. ссылка здесь, Например. Я также рассмотрел различные принципы и руководства по этике ИИ, которые были определены и приняты различными странами, включая, например, усилия Организации Объединенных Наций, такие как свод этических норм ИИ ЮНЕСКО, принятый почти в 200 странах, см. ссылка здесь.

Вот полезный краеугольный список критериев или характеристик этического ИИ, касающихся систем ИИ, которые я ранее внимательно изучал:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Предполагается, что эти принципы этики ИИ должны серьезно использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ.

Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как уже подчеркивалось здесь, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна быть осведомлена и соблюдать этические предписания ИИ.

Я тоже недавно осматривал ИИ Билль о правах таково официальное название официального документа правительства США под названием «План Билля о правах ИИ: заставить автоматизированные системы работать на благо американского народа», который стал результатом многолетних усилий Управления научно-технической политики (OSTP). ). OSTP — это федеральная организация, которая консультирует американского президента и администрацию США по различным технологическим, научным и инженерным аспектам государственной важности. В этом смысле можно сказать, что этот Билль о правах ИИ является документом, одобренным и одобренным существующим Белым домом США.

В Билле о правах ИИ есть пять ключевых категорий:

  • Безопасные и эффективные системы
  • Алгоритмическая защита от дискриминации
  • Конфиденциальность данных
  • Уведомление и объяснение
  • Человеческие альтернативы, рассмотрение и отступление

Я внимательно изучил эти заповеди, см. ссылка здесь.

Теперь, когда я заложил полезную основу для этих связанных тем, связанных с этикой ИИ и законом об ИИ, мы готовы перейти к опрометчивой теме о том, должен ли ИИ иметь предупреждающие ярлыки.

Приготовьтесь к увлекательному познавательному путешествию.

Навешивание предупреждающих ярлыков на ИИ как на средство защиты человечества

Нарастает шумиха о том, что, возможно, ИИ должен прийти с каким-то предупреждением.

Например, в недавней статье в MIT Technology Review в котором обсуждался растущий интерес к проведению аудитов ИИ, возникла идея предоставления предупреждающих знаков: «Рост этих аудитов предполагает, что однажды мы можем увидеть предупреждения в стиле сигаретных пачек о том, что системы ИИ могут нанести вред вашему здоровью и безопасности. В других секторах, таких как химическая и пищевая промышленность, проводятся регулярные проверки, чтобы убедиться, что продукция безопасна в использовании. Может ли что-то подобное стать нормой в ИИ?» (MIT Technology Review, Мелисса Хейккиля, 24 октября 2022 г.).

Давайте немного поговорим о предупреждающих и предупреждающих знаках.

Мы все уже в целом знакомы с предупреждающими и предупредительными знаками на многочисленных продуктах и ​​услугах повседневного характера. Иногда знаки безопасности предусмотрены законом как обязательные, в то время как в других случаях использование таких знаков допускается по усмотрению. Кроме того, некоторые знаки безопасности стандартизированы, например, в соответствии со стандартом ANSI Z535 и стандартом OSHA 1910.14. Эти стандарты охватывают такие аспекты, как формулировка знака, используемые цвета и шрифты, форма знака и другие различные детали.

Имеет смысл иметь стандарты для таких предупредительных знаков. Всякий раз, когда вы видите такой знак, если он соответствует заявленным стандартам, вы с большей вероятностью поверите, что знак является законным, плюс вам требуется меньше когнитивной обработки для анализа и понимания знака. Для знаков, которые не соответствуют стандартному подходу, вам часто приходится мысленно рассчитывать, что знак говорит вам, возможно, теряя драгоценное время, чтобы принять меры, или вы можете полностью неверно оценить знак и не правильно понять предупреждение.

Может существовать ряд таких признаков, по которым их часто классифицируют примерно так:

  • Знак опасности: высшая степень беспокойства и указывает на непосредственную опасность с вероятными серьезными последствиями.
  • Предупреждающий знак: Указывает на опасность, меньшую, чем «опасность», но все же достаточно серьезную.
  • Предупреждающий знак: Указывает на потенциальную опасность, которая меньше, чем «предупреждение», но все же действительно серьезная.
  • Знак уведомления: Указывает на информационное предупреждение, которое меньше, чем «осторожно», но все же влечет за собой тревожные аспекты.

Учитывая вышеизложенное о предупреждениях и предупреждающих знаках, мы можем пойти дальше и попытаться применить это контекстуально к использованию ИИ.

Во-первых, мы потенциально могли бы каким-то образом согласиться с тем, что вывески ИИ могут иметь тот же диапазон серьезности, что и обычные повседневные вывески, например:

  • Знак опасности AI: AI вызывает наибольшую озабоченность и указывает на непосредственную опасность с вероятными серьезными последствиями
  • Предупреждающий знак ИИ: AI указывает на опасность, меньшую, чем «опасность», но все же достаточно серьезную.
  • Предупреждающий знак AI: ИИ указывает на потенциальную опасность, которая меньше, чем «предупреждение», но все же действительно серьезная
  • Знак уведомления ИИ: ИИ указывает на информационное предупреждение, которое меньше, чем «осторожность», но все же влечет за собой тревожные аспекты.

Суть в том, что не все ИИ будут вызывать одинаковое беспокойство. Возможно, ИИ представляет огромные риски или имеет лишь незначительные риски. Соответственно, вывеска должна отражать, что есть что. Если бы все предупреждения или предостерегающие знаки ИИ просто демонстрировались как относящиеся к одному и тому же калибру, мы, по-видимому, не знали бы или не осознавали, следует ли сильно или лишь слегка беспокоиться по поводу ИИ. Использование типизированной схемы формулировок может облегчить жизнь при просмотре и интерпретации предупреждающих знаков, связанных с ИИ.

Вам может быть интересно, что еще могут сказать знаки с точки зрения специфики сообщения, которое нужно передать.

Это, конечно, более сложный вопрос. Возможности ИИ делать вещи, которые считаются небезопасными или вызывающими беспокойство, были бы чрезвычайно большими, почти бесконечными. Можем ли мы свести их к некоему рутинному набору, каждый из которых изложен всего в нескольких словах? Или нам придется разрешить более свободный подход к формулировкам?

Я позволю вам обдумать этот открытый вопрос.

Двигаясь дальше, мы склонны видеть предупреждающие знаки, размещенные на объектах. Система ИИ не обязательно является «объектом» в том же смысле, что и привычное нанесение знаков. Это поднимает вопрос о том, где будут представлены предупреждающие знаки ИИ.

Возможно, когда вы запускаете приложение, скажем, на своем смартфоне, если оно использует ИИ, будет отображаться сообщение, содержащее предупреждение, связанное с ИИ. Приложение предупредит вас об использовании ИИ. Это может быть всплывающее сообщение или оно может быть представлено различными визуальными и даже слуховыми способами.

Существует также ситуация, когда вы используете сервис, поддерживаемый ИИ, хотя вы, возможно, не взаимодействуете с ИИ напрямую. Например, вы можете вести беседу с агентом-человеком о получении ипотечного кредита, для чего агент молча за кулисами использует систему искусственного интеллекта для управления своими усилиями.

Таким образом, мы должны ожидать, что предупреждающие знаки ИИ должны присутствовать в обоих случаях использования ИИ, например:

  • ИИ для конкретного продукта: ИИ как продукт должен иметь прямое предупреждение об ИИ или предостерегающие знаки.
  • Сервис-ориентированный ИИ: ИИ как услуга (прямо или косвенно) должен иметь предупреждающие или предупреждающие знаки ИИ.

Скептики наверняка поспешили бы предположить, что предупреждающий знак ИИ может быть хитро замаскирован производителем приложения, чтобы предупреждение не было особенно заметным. Возможно, предупреждение появляется на короткое мгновение, и вы действительно не замечаете, что оно было показано. Еще один хитрый трюк — превратить это в своего рода игру, которая, казалось бы, подрывает серьезность предупреждения и убаюкивает людей, заставляя их думать, что предупреждение не имеет значения.

Да, вы можете поспорить, что любые предупреждающие знаки, связанные с ИИ, будут обмануты и использованы способами, которые не соответствуют духу и намерениям предостерегающих сообщений, которые они должны передавать.

Все эти скептицизмы согласуются с тем, будем ли мы использовать этику ИИ в качестве «мягких законов», чтобы попытаться продвигать предупреждения и предостережения, связанные с ИИ, или же мы будем использовать «жесткие законы», включая принятые законы при поддержке суда. Теоретически толчок мягкого права позволил бы создать большее подобие игры с этим вопросом, в то время как законы на бумаге имели бы потенциал для принудительного исполнения со стороны правительства и привнесли бы большую строгость.

Еще одна проблема заключается в том, будут ли вывески с искусственным интеллектом иметь какое-либо значение.

Множество исследований потребительского поведения, как правило, показывают запутанные результаты, когда дело доходит до предоставления потребителям предупредительных надписей. Иногда предупреждения эффективны, иногда нет. Давайте применим некоторые из этих исследований к контексту ИИ.

Рассмотрим эти аспекты:

  • Обнаружение: Будут ли те, кто использует ИИ, который содержит жизнеспособный предупреждающий знак ИИ, активно замечать или обнаруживать, что знак показывается им (при условии, что такой знак имел место)?
  • Постижение: Для тех, кто заметил, поймут ли они или поймут, что пытается предложить им предупреждающий знак ИИ?
  • Действие: Для тех, кто совершает этот ментальный скачок, предупреждающий знак ИИ побуждает их к действию или иным образом служит для соответствующего управления их поведением?

Вы можете ожидать, что, если предупреждающие знаки ИИ наберут обороты, исследователи будут внимательно изучать этот вопрос. Идея заключалась бы в том, чтобы помочь прояснить, при каких обстоятельствах предупреждения полезны, а когда нет. Это, в свою очередь, относится к дизайну и внешнему виду. Мы также можем ожидать, что широкая общественность должна быть обучена или проинформирована о появлении этих предупреждающих и предостерегающих знаков ИИ, чтобы они привыкли к ним.

Есть много поворотов, которые нужно учитывать.

Должен ли предупреждающий или предупреждающий знак ИИ появляться только в начале использования приложения? Возможно, отправная точка сама по себе недостаточна. На первый взгляд человек может подумать, что приложение просто избегает рискованных действий, используя предупреждение, и, таким образом, не обращает особого внимания на предупреждение. Как только человек на полпути к использованию приложения, возможно, будет оправдано дополнительное предупреждение. В этот момент человек лучше осведомлен о том, что делает приложение, и, возможно, уже забыл о ранее указанном предупреждающем сообщении.

Затем может появиться предупреждение или предостережение ИИ:

  • Перед запуском приложения и перед запуском приложения
  • Представлено после запуска приложения и только в начальной точке
  • Показано в начале и снова в середине
  • Показано несколько раз на протяжении всего использования ИИ
  • Предоставляется в конце использования приложения
  • Предоставлять после выхода из приложения и, возможно, даже через несколько минут, часов или дней
  • И т.д.

Считаете ли вы, что человек, использующий ИИ, должен подтверждать или подтверждать любые такие предупреждения или предостерегающие знаки ИИ?

Некоторые настаивали бы на том, чтобы от человека требовалось признать, что он видел предупреждения. Это потенциально предотвратит тех, кто может заявить, что не было никакого предупреждающего сообщения. Это также может заставить людей относиться к сообщениям более серьезно, учитывая, что их просят подтвердить, что они соблюдали предупреждающую индикацию.

Вот вам сложный вопрос.

Должен Найти ИИ должен выдавать предупреждение или индикацию безопасности?

Вы можете возразить, что да, все ИИ должны иметь это. Даже если ИИ представляет лишь незначительную угрозу безопасности, он все же должен иметь некую форму предупреждающего знака, возможно, просто уведомление или информационную индикацию. Другие бы оспорили это утверждение. Они возразят, что вы перегибаете палку. Не всем ИИ это нужно. Кроме того, если вы заставите все ИИ иметь его, вы размоете цель. Люди перестанут видеть предупреждающие знаки. Весь подход станет фарсом.

С этой точки зрения подумайте, что, скорее всего, скажут создатели ИИ.

Одна точка зрения будет заключаться в том, что это будет болью в том, что вы знаете, что поставить на место. Необходимость изменить все ваши системы искусственного интеллекта и добавить эту функцию может быть дорогостоящей. Добавление его в будущем может быть менее затратным, хотя, тем не менее, включение этого положения сопряжено с затратами.

Туманность — еще одна потенциальная жалоба. Какое сообщение нужно показать? Если стандартов нет, значит, создателям ИИ нужно будет что-то создавать заново. Мало того, что это дополнительные расходы, это, возможно, открывает дверь для предъявления иска. Вы можете себе представить, что создателя ИИ могут поставить перед задачей, что его предупреждение не так хорошо, как какая-то другая система ИИ. Юристы закончат тем, что сделают связку из полученной неразберихи.

Есть также опасения, что люди будут чрезмерно напуганы этими сообщениями о безопасности.

Создатель ИИ может столкнуться с резким падением числа пользователей из-за сообщения о безопасности, которое предназначено просто для информационного предупреждения. Люди не будут знать, что делать с сообщением. Если они раньше не видели таких сообщений, они могут сразу испугаться и избегать использования ИИ без необходимости.

Я упоминаю об этих аспектах, потому что некоторые уже заявляют, что «не помешает» начать включать предупреждения ИИ или сообщения о безопасности. Для них эта идея так же идеальна, как яблочный пирог. Никто не мог серьезно опровергнуть преимущества постоянного требования безопасности или предупреждений, связанных с ИИ. Но, конечно, это не реальный способ думать об этом.

Можно даже пойти дальше и заявить, что предупреждающие сообщения ИИ могут вызвать некую форму массовой истерии. Если бы мы вдруг начали заставлять системы ИИ иметь такие сообщения, люди могли бы неверно истолковать намерение. Видите ли, есть много увещеваний, что мы сталкиваемся с экзистенциальным кризисом ИИ, в результате чего ИИ захватит мир и сотрет человечество с лица земли, см. ссылка здесь за мой анализ таких утверждений.

Использование предупреждающего сообщения ИИ может «внушить» некоторым людям, что конец близок. Почему еще сообщения теперь появляются? Безусловно, это признак того, что ИИ, наконец, готовится стать нашими деспотическими повелителями.

Своего рода безнадежно мрачный результат попытки поступить правильно, информируя общественность о том, как ИИ может быть наделен дискриминационными способностями или другими AI для плохих аспекты.

Заключение

Джеймс Рассел Лоуэлл, знаменитый американский поэт, однажды сказал: «Одна заноза опыта стоит целой пустыни предупреждений».

Я привожу это высокомерное замечание, чтобы сделать несколько заключительных комментариев по поводу предупреждений ИИ или сообщений о безопасности.

Скорее всего, пока у нас не будет широко распространенного осознания того, что ИИ совершает плохие поступки, не будет особого шума в отношении предупреждающих сообщений, связанных с ИИ. Те производители ИИ, которые решат сделать это добровольно, возможно, получат похвалу, хотя они также могут непреднамеренно подвергнуться несправедливому преследованию. Некоторые эксперты могут преследовать их за использование ИИ, который, казалось бы, нуждается в предупреждениях, в то же время забывая о том, что они пытались идти первыми, а все остальные производители ИИ отстают.

Штопано, если да, возможно, не штопано, если нет.

Другое соображение касается превращения того, что кажется хорошей концептуальной идеей, в практическую и полезную практику. Легко махать руками и неопределенно кричать, что у ИИ должны быть предупреждения и сообщения о безопасности. Трудная часть возникает при принятии решения о том, какими должны быть эти сообщения, когда и где они должны быть представлены, приносят ли и в какой степени их стоимость достаточные выгоды и так далее.

Здесь мы предоставим Джеймсу Расселу Лоуэллу последнее слово (поэтически) по этой теме на данный момент: «Творчество — это не нахождение вещи, а создание чего-то из нее после того, как она найдена».

Думаю, пришло время засучить рукава и приступить к работе. И это не просто предупреждение, это действие.

Источник: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- предупреждения-об-всех-существующих-и-будущих-ai/