Специалисты по этике ИИ встревожены растущим использованием закулисных соков или допингом машинного обучения ИИ доверенными инсайдерами, включая автономные беспилотные автомобили

Соки и допинг.

Допинг и соки.

Мы все знаем о продолжающемся и тайном использовании допингов, на которые, к сожалению, полагаются в различных видах спорта. Это происходит в профессиональном спорте и даже в любительском спорте. Это происходит на Олимпийских играх, которые, по идее, являются всемирно почитаемым соревнованием, которое должно быть образцом чистоты пределов человеческих способностей и высочайших крайностей во всем человечестве.

В акте употребления сока и допинга есть своего рода распространенность. Спортивные деятели находятся под огромным давлением, чтобы занять первое место, и у них есть заманчивое искушение использовать любые средства, чтобы добраться туда. Мы видели, что из-за вероятности употребления сока или допинга во многих, если не в большинстве видов спорта, были введены процедуры и меры, направленные на сдерживание и поимку тех, кто ошибочно придерживается таких начинаний. Если кого-то поймают на употреблении сока или допинга, его спортивные медали могут быть аннулированы. Кроме того, они, скорее всего, будут отвергнуты своими сторонниками и спонсорами. Огромное чувство репутационного риска идет рука об руку со случайным актом приема сока или допинга.

Люди, которые хотят быть «лучшими» в каком-то виде спорта, разрываются между не использование препаратов, улучшающих работоспособность, и выбор незаконных или, по крайней мере, неэтичных веществ. Употребление наркотиков может быть почти верным путем к вершине. Если ввести его исподтишка и с особым вниманием, есть шанс, что никто не узнает, и тестирование не обнаружит его. Вы можете уйти с ним, казалось бы, безнаказанным. Конечно, также существует вероятность того, что вы нанесете вред своему телу и в конечном итоге заплатите физическую цену, но интенсивность желания получить сиюминутную возможность выиграть имеет тенденцию преуменьшать любые будущие последствия.

Итак, с одной стороны, у нас есть грандиозный потенциал для достижения великой славы и, возможно, даже богатства с помощью препаратов, улучшающих работоспособность, а с другой стороны, у нас есть бесславный шанс быть пойманным и лишенным с трудом заработанного выигрыша. и стать ужасно презираемой во всем мире общественной фигурой (наряду с неблагоприятными последствиями, связанными со здоровьем).

Это своего рода содержательный анализ затрат и выгод, который необходимо провести.

Некоторые в уме подсчитывают ROI (окупаемость инвестиций) и решают никогда не прикасаться ни к одному из препаратов, повышающих работоспособность. Они решают оставаться совершенно чистыми и непорочными. Другие могут начать таким образом, а затем немного отклониться. Вы можете оправдать свое проскальзывание, просто как крошечный шаг в воду, повышающую производительность, и торжественно поклясться себе, что никогда больше этого не сделаете. Однако это может привести к скользкой дорожке. Классический и предсказуемый снежный ком из пословиц, который скользит, скользит и катится по заснеженному склону, собираясь во все больший и больший шар.

У вас также есть те, кто заранее решает, что они собираются пойти дальше и использовать препараты, повышающие работоспособность. Типичный способ мышления состоит в том, что это единственный способ бороться с огнем огнем. Предполагается, что все остальные, с которыми вы конкурируете, поступают так же. Таким образом, для вас нет абсолютно никакого смысла быть чистым и в то же время идти против тех, кто явно нечист (как вы предполагаете).

Я думаю, вы понимаете, почему природа тестирования и обнаружения особенно важна в этих вопросах. Если некоторым участникам может сойти с рук использование допинга, это портит всю бочку. Дюйм за дюймом все остальные участники почти наверняка пойдут по тому же пути. Им предстоит сделать ужасный выбор. Это влечет за собой либо соревнование без лекарств, но, вероятно, с физическим недостатком, либо они должны принять наркотики и оставаться конкурентоспособными, несмотря на то, что, возможно, хотят всем своим сердцем и, возможно, не должны прибегать к усилителям производительности.

Затруднение, безусловно.

Есть еще среда, которая смешивает эти обстоятельства. Например, постоянно возникает вопрос, что на самом деле является препаратом, улучшающим работоспособность. Власти могут составить список запрещенных препаратов. Между тем, в гамбите кошек и мышей разрабатываются или идентифицируются другие препараты, которые обеспечивают повышение производительности, но не входят в список запрещенных химических веществ. Можно попробовать идти на шаг впереди списка, переключаясь на другие препараты и тонко оставаясь в рамках правил игры.

Основная суть заключается в том, что приготовление соков и допинг не обязательно являются простыми темами. Да, мы все могли бы согласиться с тем, что употребление сока или допинга — это ужасно, и им не следует заниматься. Да, мы все могли бы согласиться с тем, что должны быть строгие правила, запрещающие употреблять соки и допинг, наряду с жесткими усилиями по поимке тех, кто сбился с пути. К сожалению, существует множество уловок, которые могут подорвать эти высокие цели.

Почему я поделился с вами испытаниями и невзгодами употребления сока и допинга?

Я делаю это по причине, которая может показаться вам поразительной, досадной, расстраивающей и вообще душераздирающей.

Видите ли, все чаще звучат громкие заявления о том, что ИИ иногда «повышается производительностью» за счет использования сока или допинга (своего рода). Идея состоит в том, что при разработке системы ИИ разработчики могут предпринимать несколько закулисных уловок, чтобы ИИ выглядел лучше, чем он есть на самом деле. Это, в свою очередь, может обмануть других, заставив их предположить, что у ИИ есть возможности, которых на самом деле у него нет. Последствия могут быть легкими или опасными.

Представьте себе систему ИИ, которая играет в шашки с (скажем так) «повышенной производительностью», чтобы казалось, что она никогда не проиграет в игре в шашки. Некоторые инвесторы вкладывают в игру тонны бабла, ложно полагая, что ИИ всегда будет побеждать. После публичного использования ИИ побеждает и побеждает. В какой-то момент он может проиграть игру. Йикс, что случилось? В любом случае, в данном случае использования это вряд ли будет вопросом жизни или смерти.

Вместо этого представьте систему искусственного интеллекта, которая управляет беспилотным автомобилем. ИИ «повышен производительности», чтобы казалось, что он может управлять безопасно и без происшествий. Некоторое время беспилотный автомобиль используется на дорогах общего пользования, и кажется, что все в порядке. К сожалению, в какой-то момент ИИ сбивается с пути, и происходит автокатастрофа, в которой явно виновата система ИИ. Люди могут получить травмы, и может произойти смертельный исход. Это ситуация, при которой употребление сока или допинг ИИ имеет отрезвляющие и серьезные последствия для жизни или смерти.

Я понимаю, что у вас может быть изжога из-за того, что вы ссылаетесь на соки и допинг, когда дело доходит до ИИ. Я говорю это, потому что сегодняшний ИИ абсолютно неразумен, и нам следует быть осторожными в антропоморфизации ИИ, о чем я расскажу чуть позже. Короче говоря, ИИ — это не человек и пока еще не что-то близкое к человеку. Попытка сравнить их и привести в соответствие с общепринятой концепцией употребления сока или допинга несколько схематична, и ее следует делать с широко открытыми глазами.

Я собираюсь продолжить предложенную аналогичную идею выжимания сока и допинга ИИ, хотя я прошу вас помнить, что это то, с чем не следует заходить слишком далеко. Мы можем в какой-то степени разумно использовать формулировку как средство выявления аспектов, которые, я бы сказал, крайне необходимы для раскрытия. Это жизнеспособная основа для использования крылатых фраз. Но мы не должны растягивать это в преисподнюю и превращать это во что-то, чем оно не является. Я скажу больше об этом на мгновение.

Один из аспектов ИИ, привлекающий наибольшее внимание к получению сока и допингу, связанному с ИИ, связан с определенными способами, которыми некоторые разработчики создают системы машинного обучения (МО) и глубокого обучения (ГО) на основе ИИ. Существует множество аспектов этики ИИ и этических аспектов ИИ, относящихся к такого рода гнусным действиям при разработке систем ОД/МО. Мой постоянный и обширный обзор этики ИИ и этического ИИ см. ссылка здесь и ссылка здесь, просто назвать несколько.

Давайте также будем держать голову над водой и, пожалуйста, подчеркнем эти аспекты, когда вы продолжите обсуждение:

  • Не все, кто разрабатывает ИИ ML/DL, делают соки или допинг ML/DL.
  • Некоторые делают это, но не особо осознают, что делают что-то не так.
  • Некоторые делают это и точно знают, что они делают в отношении выжимания сока или допинга ML/DL.
  • В отличие от спортивной сферы, существует очень мало формализованного стандартизированного повсеместного «тестирования или обнаружения» этих типов вопросов для современного ОД / DL.
  • Неблагоприятные последствия этого могут значительно различаться в зависимости от характера ОД/ДО (например, ИИ, играющий в шашки, ИИ, управляющий беспилотным автомобилем).
  • Некоторые утверждают, что в этих действиях нет ничего противозаконного.
  • Определения того, что является или не является допингом или допингом ОД/ДО, разбросаны по всей карте.
  • AI Ethics пытается понять, как лучше всего справиться с якобы зарождающейся тенденцией.

Я хотел бы прояснить еще один поворот в этой теме. Я прошу вас терпеть меня в этом. Почему-то некоторые совершенно неверно истолковывают этот вопрос и впадают в странный образ мыслей, что разработчики ИИ сами принимают наркотики, повышающие производительность, и поэтому речь идет о людях, которые сами употребляют соки и допинг.

Это обычно вызывает смех у ряда разработчиков ИИ.

Чтобы было совершенно ясно, это не то, что я имею в виду. Я отчетливо и исключительно сосредоточен здесь на так называемом добавлении сока и легировании самого ИИ, а не людей, разрабатывающих ИИ. При этом я не утверждаю, что не может быть разработчиков ИИ, которые каким-то образом решают принимать препараты, повышающие производительность, по каким-то причинам, по которым они могут это сделать. Кажется сомнительным, что существует вполне подходящая спортивная аналогия, сравнимая с действиями разработчиков ИИ, которые случайно решают принять запрещенные наркотики, повышающие производительность, но я оставляю это другим исследователям, которые, возможно, захотят исследовать эту область. Я бы просто сказал, что прием каких-либо препаратов, улучшающих работоспособность, по каким бы то ни было причинам, безусловно, неблагоразумен и определенно может быть незаконным, неэтичным и в высшей степени опрометчивым.

Я верю, что это поможет все исправить.

Прежде чем перейти к еще большему количеству мяса и картошки о приготовлении сока и допинге ИИ, давайте установим некоторые дополнительные основы по глубоко интегральным темам. Мы должны быстро погрузиться в этику ИИ и ML/DL, чтобы правильно подготовить почву.

Возможно, вы смутно осознаете, что один из самых громких голосов в наши дни в области ИИ и даже за его пределами состоит в том, чтобы требовать большего подобия этического ИИ. Давайте посмотрим, что означает обращение к этике ИИ и этичному ИИ. Кроме того, мы рассмотрим, что я имею в виду, когда говорю о машинном обучении и глубоком обучении.

Один конкретный сегмент или часть этики ИИ, которая привлекает большое внимание средств массовой информации, состоит из ИИ, который демонстрирует неблагоприятные предубеждения и несправедливость. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в неэтичную пропасть (см. мой анализ таких возможностей на ссылка здесь).

Через мгновение я поделюсь с вами некоторыми всеобъемлющими принципами, лежащими в основе этики ИИ. Есть много таких списков, плавающих то здесь, то там. Можно сказать, что единого списка универсальной привлекательности и согласованности пока не существует. Это неприятная новость. Хорошая новость заключается в том, что, по крайней мере, существуют легкодоступные списки этики ИИ, и они, как правило, очень похожи. Все это говорит о том, что с помощью своего рода обоснованной конвергенции мы находим путь к общей общности того, из чего состоит этика ИИ.

Во-первых, давайте кратко рассмотрим некоторые из общих этических принципов ИИ, чтобы проиллюстрировать, что должно быть жизненно важным соображением для любого, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологий, процессов разработки и методов работы, применимых к возможностям ИИ, включая прозрачные и проверяемые методологии, источники данных, процедуры проектирования и документацию.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как указывалось ранее, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна разбираться в принципах этики ИИ и соблюдать их.

Давайте также убедимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели дико рассуждать о чувствующий AI, эта дискуссия может пойти в совершенно ином направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхразумный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Давайте будем более приземленными и рассмотрим современный вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Давайте теперь вернемся к теме искусственного интеллекта или допинга.

В недавней статье в журнале Наука В журнале «выжимание соков» или «допинг» машинного обучения и глубокого обучения возникло в контексте усилий разработчиков ИИ, стремящихся получить высокие оценки в тестах ML/DL: «Стремление к высоким баллам может привести к эквиваленту допинга ИИ. Исследователи часто настраивают и улучшают модели с помощью специальных программных или аппаратных настроек, которые могут варьироваться от запуска к запуску в тесте, что приводит к производительности модели, которую невозможно воспроизвести в реальном мире. Хуже того, исследователи склонны тщательно выбирать среди похожих эталонов, пока не найдут тот, в котором их модель выходит на первое место» (Наука, «Научил к испытанию» Мэтью Хатсона, май 2022 г.).

Вы можете сравнить ситуацию с эталонным тестом ML/DL, связанную с приготовлением сока, с предыдущими пунктами о попытках выиграть на спортивных соревнованиях с помощью таких неблагоприятных методов.

На арене ИИ существует подобие соревнования, кто может создать «лучшие» модели ML/DL. Можно использовать различные тесты для запуска ML/DL и оценки того, насколько хорошо ML/DL оценивается в тесте. Таблицы лидеров и неформальный обмен результатами тестов часто используются, чтобы рекламировать тех, кто достиг последней высшей позиции с помощью своих конфигураций ML/DL. Можно разумно предположить, что немного славы и богатства ждет тех, кто сможет создать свое ML/DL, чтобы стать «победителем» как последний и лучший исполнитель в тестах.

Но, как и в любом соревновании, есть способы попытаться обмануть ваше ML/DL, чтобы оно, казалось, работало мощно в тесте, даже если применяются скрытые хитрости. Это классическая ошибка, заключающаяся в том, что вы стремитесь получить хорошие оценки за тест, оттачивая свой подход к тесту, в то время как общий принцип заключается в том, что вы пытаетесь установить общую производительность.

Представьте, что вы даете тест кому-то, который предназначен для измерения его общего понимания, скажем, американской литературы, но испытуемый выясняет, что вопросы будут сосредоточены только на Марке Твене. Таким образом, испытуемый изучает только произведения Марка Твена и получает за тест очень высокие баллы. Экзаменуемый с гордостью заявляет, что он справился с тестом, и, следовательно, он, очевидно, является знатоком всей американской литературы. На самом деле они просто отточили тест и в некотором смысле обманули процесс тестирования.

Я понимаю, что некоторые могут сразу указать пальцем на тест и на того, кто его готовил. Если создатель теста был достаточно плотным, чтобы позволить испытуемым использовать тест, вы могли бы возразить, что это полностью лежит на плечах создателя теста, а не испытуемого. Экзаменуемый делал все возможное, чтобы подготовиться к тесту, включая выяснение того, что ему следует изучить. Это не только кажется разрешенным, вы можете поздравить тестируемого с тем, что он перехитрил тестировщика.

Я не буду углубляться в эту этическую бездну здесь. Вы можете легко ходить вокруг да около на такой теме. Давайте просто скажем, что дух тестов ML/DL заключается в том, что те, кто использует тесты, надеются или предполагают, что делают это в спортивной манере. Кому-то это может показаться наивным, а кому-то — откровенным и правильным.

Я надеюсь, что вы сразу же увидите, как этика ИИ и этические соображения ИИ естественным образом возникают в таком контексте.

Учтите, например, что данный ML/DL показывает очень хорошие результаты в бенчмарке и что основание для повышения оценки связано с добавлением сока или допингом ИИ. Предположим далее, что разработчики ИИ «победившего» ML/DL не раскрывают, что они создали ИИ. Другие разработчики ИИ слышат или читают результаты производительности ML/DL и приходят в восторг от кажущегося прорыва в ИИ ML/DL. Они, к сожалению, не подозревают о скрытом использовании сока или допинге ИИ.

Эти ликующие разработчики ИИ решили переключить свои усилия на предполагаемые подходы этого конкретного ML/DL, желая еще больше расширить возможности. В какой-то момент, возможно, они обнаружат, что уперлись в стену, и, к своему неприятному удивлению, они, кажется, ничего не добиваются. Это может быть довольно озадачивающим и раздражающим. Они месяцами или годами трудились над чем-то, что, как они и не подозревали, было создано с самого начала. Опять же, я понимаю, что вы, возможно, хотели бы придраться к тем ныне разочарованным разработчикам ИИ, которые, по-видимому, не были достаточно умны, чтобы раньше выискивать соки, но я осмелюсь сказать, что мы также можем быть обеспокоены тем, что были соковыжималки, которые начали вещи, которые Путь, для начала.

Все это, безусловно, напоминает спортивную аналогию.

У вас есть желание победить, казалось бы, любой ценой. Некоторые будут стремиться выиграть без сока, в то время как другие полностью делают его. Те, кто употребляет соки, могут рационализировать это занятие как законное. Прилагаются усилия, чтобы попытаться сократить или поймать приготовление сока, хотя характер ситуации в кошки-мышки означает, что приготовление сока, вероятно, будет на шаг впереди. Когда кто-то, кто занимается выжиманием сока, попадается, он рискует получить негативную реакцию на свою репутацию и другие неблагоприятные последствия. Они постоянно сопоставляют предполагаемые преимущества с предполагаемыми затратами. И так далее.

Сложность в том, чтобы поймать сока ИИ ML / DL, заключается в том, что существует множество способов использовать соок или допинг. Можно предположить, что вы могли бы сказать то же самое о спорте и приготовлении сока, а именно, что можно использовать широкий спектр средств и усилителей производительности, чтобы попытаться остаться незамеченным.

В любом случае, вот несколько общих категорий, которые следует учитывать при создании сока с помощью ИИ:

а) Сок на этапе проектирования машинного обучения и глубокого обучения

б) Сок данных, используемых для обучения ML/DL

c) Совершенствуйте модель ML/DL

d) Сок выходных данных ML/DL

e) Выполните любое из двух действий в комбинации.

f) Выполните любое из трех действий в комбинации.

г) сделать все вышеперечисленное

Я подробно рассказывал об использовании лучших практик ML/DL, а также предупреждал о сомнительном использовании неуместных практик ML/DL в своих колонках. Вам предлагается взглянуть, если вы хотите получить более подробную информацию.

Для пробы давайте кратко рассмотрим, какой вид обработки может происходить с помощью данных, которые используются для обучения ML/DL. Обычное эмпирическое правило заключается в том, что вы храните некоторые данные обучения для тестирования вашей модели ML/DL. Обычно рекомендуется использовать правило 80/20. Вы используете около 80% своих данных для обучения ML/DL. Оставшиеся 20 % используются для тестирования ML/DL. Есть надежда, что 20 % относительно репрезентативны для остальных 80 %, и что вы просто случайным образом выберете, какие из ваших обучающих данных находятся в обучающем наборе, а какие — в тестовом наборе.

Кажется прямолинейным.

Теперь мы сделаем немного сока или допинга:

  • Скрытно отражайте данные тренировок и данные тестирования. Одним из способов улучшить ситуацию было бы тщательное изучение ваших данных и попытка преднамеренно убедиться, что 80% и 20% идеально совпадают. Вы не делите данные случайным образом. Вместо этого вы проводите скрытный отбор, чтобы попытаться получить 80% и 20% похожих друг на друга в точности. Это сделано для того, чтобы ваше тестирование выглядело исключительно хорошо. По сути, если ваш ML/DL преуспевает на 80%, он почти гарантированно преуспевает и на 20%. Делать это не в духе вещей, поскольку вы потенциально вводите себя (и других) в заблуждение, полагая, что ML/DL в вычислительном отношении проделал отличную работу по обобщению. Может и не было.
  • Сократите тестовые данные. Другой способ наполнить ваш набор данных ML/DL состоит в том, чтобы разделить обучающие данные таким образом, чтобы они составляли, скажем, 95% ваших данных, в то время как данные тестового тестирования составляют всего 5%. Вероятно, это повысит ваши шансы на то, что ничтожные 5% не снизят производительность ML/DL. Очень немногие люди когда-либо спрашивали, какая часть ваших данных использовалась для обучения, а не для тестирования. Они не знают, как задать этот вопрос или предположить, что все, что вы сделали, было правильным способом ведения дел.
  • Заранее избавьтесь от выбросов. Хитрый способ подправить или дополнить ваш ML/DL включает обман с выбросами в ваших данных. Прежде чем передать какие-либо свои данные в многообещающее ML/DL, вы сначала исследуете данные. Это разумный шаг, и мы настоятельно рекомендуем его, поскольку вы должны быть знакомы со своими данными, прежде чем вводить их в ML/DL. Как говорится, вот хитрость, которую можно использовать. Вы находите любые выбросы в данных и отбрасываете их. Это обычно помогает математике ML/DL, когда он пытается вычислить закономерности. С выбросами, как правило, трудно иметь дело, хотя часто они имеют решающее значение и могут многое рассказать о характере данных и о том, что вы пытаетесь смоделировать. Слепо удаляя выбросы, вы обязательно упустите что-то, что может решить или разрушить реальность того, что, как предполагается, может делать ML/DL. Лучше всего обращать внимание на выбросы и думать, как лучше с ними бороться, а не выбрасывать их из набора данных.
  • Не делайте тестов вообще. Более возмутительный акт употребления сока или допинга влечет за собой полное прекращение тестирования. Вы используете все свои данные для обучения. Если все выглядит хорошо, вы машете руками в воздухе и заявляете, что ML/DL готов к работе. В этом смысле вы используете эмпирическое правило 100/0, а именно 100% данных для обучения и 0% для тестирования. Я предполагаю, что вы могли бы быть шокированы тем, что кто-то сделал это. Что ж, некоторые настолько уверены в результатах обучения, что считают, что тестирование не требуется. Или они спешат и у них нет времени заниматься этим «раздражающим» тестированием. Вы получаете картину.

Ранее я упоминал, что выжимание сока или допинг ИИ может быть несколько несущественным, если природа самого ИИ не является особенно первостепенной, в то время как другие настройки могут включать управляемые ИИ последствия жизни или смерти, и поэтому выжимание сока является пугающе слабым звеном и потенциальный предвестник могилы.

Могу поспорить, что на данном этапе этой серьезной дискуссии вам нужны наглядные примеры, которые могли бы продемонстрировать эту тему. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе искусственного интеллекта что-либо о нагнетании или допинге искусственного интеллекта, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Самоуправляемые автомобили и использование соков или допинг ИИ

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я надеюсь, что это дает достаточное количество предостережений, чтобы обосновать то, что я собираюсь рассказать.

Мы начнем с восхваления использования ML/DL в сфере создания беспилотных автомобилей на основе ИИ. Несколько ключевых аспектов беспилотных автомобилей были реализованы в результате использования машинного обучения и глубокого обучения. Например, рассмотрим основное требование, заключающееся в том, чтобы обнаруживать и анализировать сцену вождения, окружающую беспилотный автомобиль на основе ИИ.

Вы, несомненно, заметили, что большинство беспилотных автомобилей имеют множество датчиков, установленных на автономном транспортном средстве. Часто это делается на крыше беспилотного автомобиля. Сенсорные устройства, такие как видеокамеры, лидары, радары, ультразвуковые детекторы и т.п., обычно размещаются на багажнике на крыше или, возможно, крепятся к крыше или бокам автомобиля. Массив датчиков предназначен для электронного сбора данных, которые можно использовать для выяснения того, что существует в сцене вождения.

Датчики собирают данные и передают оцифрованные данные на бортовые компьютеры. Эти компьютеры могут представлять собой комбинацию вычислительных процессоров общего назначения и специализированных процессоров, разработанных специально для анализа сенсорных данных. По большому счету, большая часть вычислительного анализа сенсорных данных выполняется с помощью ML/DL, которое было создано для этой цели и работает на бортовых вычислительных платформах транспортного средства. Для моих подробных объяснений о том, как это работает, см. ссылка здесь и ссылка здесь, Просто назвать несколько.

ML/DL с помощью вычислений пытается найти шаблоны в данных, например, где находится проезжая часть, где находятся пешеходы, где находятся другие близлежащие автомобили и так далее. Все это имеет решающее значение для того, чтобы беспилотный автомобиль мог двигаться вперед. Без ML/DL, выполняющего анализ сцены вождения, беспилотный автомобиль был бы практически слеп в отношении того, что существует вокруг автономного транспортного средства.

Короче говоря, вы можете легко доказать, что использование ML/DL необходимо для появления беспилотных автомобилей на основе ИИ.

Можете ли вы выжать или сделать легирование ML/DL, относящегося к беспилотным автомобилям на основе ИИ?

Абсолютно.

Мы можем легко сослаться на приведенные выше примеры выжимания сока или допинга, когда речь идет об аспектах данных формулировок ML/DL. Имейте в виду, что ML/DL, который используется для сканирования пешеходов, автомобилей и других дорожных объектов, скорее всего, сначала был обучен на различных наборах данных сцен вождения. Это обучение ML / DL играет важную роль в том, чтобы система вождения AI могла правильно и безопасно перемещаться по улицам, одновременно управляя элементами управления автономным транспортным средством.

Вот что могут тайно сделать выпивка сока или допинг:

  • Скрытно отражайте данные тренировок и данные тестирования. Вы собираете вместе набор данных, который используется для обучения ML/DL на дорожных объектах, и намеренно согласовываете часть обучения и часть тестирования. Вы соблюдаете эмпирическое правило о разделении данных на 80% для обучения и 20% для тестирования, что кажется правильным подходом. Суть в том, что вы перемещаете данные, чтобы убедиться, что 80% и 20% поразительно похожи. Вы складываете колоду в пользу любого ML/DL, который вы изобретаете во время обучения.
  • Сократите тестовые данные. Вы делите обучающие данные на 95% от общего набора данных и помещаете только 5% в часть тестовых данных. Когда тестирование проводится, выясняется, что вы уменьшили вероятность того, что ML/DL не будет выглядеть хорошо.
  • Заранее избавьтесь от выбросов. Изучая данные в самом начале, вы обнаруживаете, что есть экземпляры рекламных щитов с изображениями людей. Вы обеспокоены тем, что это запутает ваш ML/DL, поэтому вы удаляете эти изображения или видео из своего набора данных. После того, как вы прошли обучение и тестирование, вы объявляете, что ваш ML/DL готов к использованию в реальных условиях. К сожалению, в какой-то момент обязательно возникнет ситуация, когда беспилотный автомобиль едет по улице или шоссе, а на нем висит рекламный щит с фотографиями людей. Вы не знаете, как отреагирует ваш ML/DL. Возможно, ML/DL предупреждает о том, что рядом находятся пешеходы, и в результате система вождения ИИ внезапно нажимает на тормоза, побуждая другие находящиеся поблизости автомобили, управляемые людьми, врезаться в беспилотный автомобиль или съезжать с проезжей части, чтобы избежать столкновения. столкновение.
  • Не делайте тестов вообще. Вы спешите получить настройку ML/DL. Может быть, компания, занимающаяся беспилотным вождением, назначила дату, в которой говорится, когда беспилотный автомобиль проведет важную публичную демонстрацию. У вас не так много времени, чтобы делать все правильно. Таким образом, вы держите пальцы скрещенными и используете все данные для обучения. Вы вообще не тестируете. Вы чувствуете облегчение от того, что смогли уложиться в установленный срок. Конечно, то, что произойдет дальше на проезжей части, может стать катастрофой.

Заключение

Как правило, добросовестные производители беспилотных автомобилей весьма осторожно относятся к тому, чтобы срезать углы и рисковать, выполняя действия, связанные с использованием сока или допинга, в своих растущих системах вождения с искусственным интеллектом. Обычно существует множество сдержек и противовесов, чтобы попытаться обнаружить и исправить любые такие действия. Кроме того, многие фирмы установили довольно строгие правила этики ИИ и механизмы оповещения, чтобы попытаться на раннем этапе выявить любые проскальзывания или закулисные действия, которые могут произойти. ссылка здесь.

Некоторые попытки собрать беспилотные автомобили с искусственным интеллектом решили отбросить осторожность на ветер. Они нагло используют любые сокращения, которые только могут придумать. Кроме того, они не придают особого значения перепроверке или попыткам пресечь употребление сока или допинга. Некоторые даже используют классическое правдоподобное отрицание, просто инструктируя своих разработчиков ИИ делать «все, что они считают правильным», а затем могут, позже, заявить, что фирма не знала, какое «соковыжимание» или «допинг» ИИ имело место. Я обсуждал эти опасные усилия в своих колонках.

В случае с беспилотными автомобилями на кону явно стоит жизнь или смерть.

Дополнительным моментом является то, что если есть шанс накачать ИИ или допинг в сфере беспилотных автомобилей, вы должны задаться вопросом, что может быть разрешено в других сферах, менее важных для жизни или смерти, которые полагаются на системы ИИ. Необходимость как можно скорее вывести ИИ за дверь огромна. Давление, чтобы убедиться, что ИИ делает правильные вещи правильным образом, может быть намного менее убедительным. К сожалению так.

Помимо этических опасений по поводу приготовления сока и допинга, связанных с ИИ, я продолжал бороться с грядущим цунами судебных исков по этим вопросам. Когда системам ИИ сходит с рук жестокая деятельность, те, кто разработал и внедрил ИИ, в конечном итоге будут привлечены к ответственности. Мы еще не видели роста судебных дел против тех, кто создает ИИ и использует ИИ в своем бизнесе. Запомните мои слова о том, что расплата неизбежна, см. мой репортаж на ссылка здесь.

Компании по закону будут вынуждены открыть свои двери, чтобы показать, как они собирают свои системы искусственного интеллекта. Что они делали во время проектирования? Что они делали во время сбора данных? Что они делали в рамках тестирования перед релизом? Все это прольет свет на возможность невидимого, скрытого искусственного интеллекта и допинга.

Там должно быть не быть бесплатным обедом для тех, кто предпочитает делать соки ИИ и допинг. Будьте осторожны и держите глаза открытыми. Стойте прямо и настаивайте на борьбе с соками и допингом искусственного интеллекта.

Нам нужен чистый ИИ, это точно.

Источник: https://www.forbes.com/sites/lanceeliot/2022/06/07/ai-ethics-alarmed-at-the-rise-in-underhanded-juicing-or-doping-of-ai-machine- обучение у доверенных инсайдеров, включая автономные беспилотные автомобили/