ИИ-стартапы, наконец, приобщаются к этике ИИ и любят ее, в том числе и новички, занимающиеся разработкой автономных беспилотных автомобилей.

Сбой быстро, сбой часто. О чем бы вы ни думали, думайте масштабнее. Притворяйся, пока не сделаешь.

Это типичные строки запуска, которые вы постоянно слышите или видите. Они стали своего рода консультативным знанием среди начинающих предпринимателей. Если вы побродите по Силиконовой долине, вы, вероятно, увидите наклейки на бамперах с этими лозунгами и, вероятно, увидите, как основатели высоких технологий носят толстовки, украшенные такими клише.

Стартапы, связанные с ИИ, несомненно, входят в эту группу.

Возможно, мы могли бы добавить дополнительный совет для успеха стартапов для ИИ, нацеленный на зарождающиеся фирмы, а именно, что они должны энергично придерживаться этики ИИ. Это идея, достойная наклейки на бампер, и, безусловно, полезная мудрость для любого основателя ИИ, который пытается понять, как он может стать настоящим лидером и успешным предпринимателем. Мой постоянный и обширный обзор этики ИИ и этического ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Первый порыв многих ИИ-стартапов, скорее всего, прямо противоположен желанию принять этику ИИ. Вот почему.

Часто стартап ИИ в первую очередь сосредоточен на том, чтобы как можно быстрее выпустить какую-то осязаемую систему ИИ. Обычно существует огромное давление, чтобы создать MVP (минимально жизнеспособный продукт). Инвесторы опасаются вкладывать деньги в какое-то новомодное изобретение ИИ, которое может быть невозможно построить, и поэтому первостепенное значение имеет срочность создания пилотного или прототипа ИИ. Как говорится, доказательство в пудинге. Многие стартапы в области искусственного интеллекта сосредоточены на том, чтобы опустить голову и создать достаточное количество кода искусственного интеллекта, чтобы их мечта об искусственном интеллекте казалась правдоподобной.

В этом смысле нет особого интереса беспокоиться об этике ИИ. Обычно предполагается, что любые этические соображения ИИ могут быть учтены после демонстрации ядра ИИ. Это мнение, что любое подобие этики ИИ — это просто глазурь на торте, а вовсе не неотъемлемая часть процесса приготовления торта. Конечно, эта этика ИИ вошла в поговорку как приятно иметь, и если позволит время, вы поместите некоторые элементы этического ИИ здесь или там, но в остальном вся эта идея добросовестного включения этики ИИ кажется надуманной и не имеет отношения к реальному миру.

Есть еще одна полупопулярная поговорка, согласующаяся с этой тенденцией. В уличной драке у вас нет времени беспокоиться о стиле. Стартап в области искусственного интеллекта отчаянно борется за создание своего искусственного интеллекта и изо всех сил пытается получить финансирование, чтобы перейти на следующий этап разработки. Все остальное, например эта надоедливая этика ИИ, считается чрезвычайно низкой по приоритетам того, о чем нужно заботиться.

Я также должен добавить, что существует множество основателей стартапов в области ИИ, которые совершенно не обращают внимания на растущую волну призывов к этичному ИИ. Те, кто находится в своем собственном техническом тумане, совершенно не подозревают, что кого-то волнует этика ИИ с самого начала. Таким образом, вы можете смело поспорить, что такой стартап ИИ не даст эфирного времени для включения этических предписаний ИИ. Это настоящее вне поля зрения и вне разума понятие, о котором создатели ИИ в стартапе, вероятно, пребывают в блаженном неведении, и даже когда речь заходит об этике ИИ, они склонны отмахиваться от него как от совершенно второстепенного фактора.

Вам может быть интересно, правы ли эти наглые основатели ИИ в своем образе мыслей. Возможно, от этики ИИ можно будет отказаться до тех пор, пока не появится достаточно времени для того, чтобы приукрасить систему ИИ. Или, возможно, в соблюдении этического ИИ действительно нет никакой ценности, и что все эти махинации с этикой ИИ — просто одно из этих сиюминутных увлечений.

Ну, если говорить прямо, это верный путь к катастрофе.

Короче говоря, те, кто игнорирует или откладывает этику ИИ, находятся в серьезной опасности: их ИИ сгорит в огне, а их стартап рухнет колоссальной кучей. Кроме того, потенциальные юридические последствия, которые сохранятся еще долго после того, как стартап будет заброшен, послужат мучительным напоминанием о том, что они должны были поступить правильно с самого начала. Судебные иски против стартапа, основателя, инвесторов и других заинтересованных сторон будут давним зловонием далеко за пределами закрытия неудавшегося стартапа ИИ.

Реалистичный: Этика ИИ должна быть краеугольным камнем всего, что решает делать стартап в области ИИ, начиная с первого дня и навсегда после него.

Точка, точка.

В целом, по моему опыту консультирования стартапов в области ИИ, а также исходя из некоторых недавних исследований стартапов в области ИИ, любой основатель, который не уделяет должного внимания этичному ИИ, скорее всего, находится на кислом пути и обнаружит, что его усилия в области ИИ будут барахтаться. Инвесторы все больше осознают, что без должного уровня этики ИИ, внедренной в многообещающую систему ИИ, предполагаемый ИИ, вероятно, будет паршивым вложением или, что еще хуже, жалкой юридически истощающей запутанностью.

Есть вероятность, что ИИ без этической основы ИИ совершит несколько уродливых и репутационных ошибок. Если будет показано, что ИИ включает в себя неприятные предубеждения и неравенство, общественный резонанс будет громким и многократно усилится благодаря сегодняшним вирусным сплетням в социальных сетях. Не только стартап ИИ попадет в горячую воду, но и инвесторы будут втянуты в ту же грязь. Почему они инвестировали в стартап в области ИИ, у которого была голова в песке, когда дело дошло до соблюдения этических принципов ИИ? Инвесторы не хотят, чтобы их навсегда запятнали действия одного конкретного стартапа в области ИИ, который они финансировали.

Имейте в виду, что в стартапы ИИ вливаются большие деньги.

Мы находимся в разгаре эйфорического порыва ко всему, что связано с ИИ. Согласно статистике, недавно собранной от имени Wall Street Journal, Венчурное финансирование стартапов в области искусственного интеллекта в прошлом году привлекло около 8 миллиардов долларов. Вероятно, это заниженная оценка, поскольку многие стартапы в области ИИ сначала украдкой скрывают свои стремления к ИИ, желая предотвратить конкуренцию или не подталкивая других к пониманию того, что ИИ можно использовать гениальным образом, будучи искусно разработанным.

Проницательный исследовательский обзор того, как стартапы ИИ потенциально используют этику ИИ, недавно появился в качестве рабочего документа Центр правил и рынков Brookings и озаглавлена ​​«Этическая разработка ИИ: данные стартапов ИИ» Джеймса Бессена, Стивена Импинка, Роберта Симанса. Давайте поучительно взглянем на то, что они нашли.

В их исследовании было опрошено чуть более двухсот стартапов, связанных с ИИ, и опрошены фирмы об осведомленности и использовании этического ИИ в их фирме. Хорошая новость заключается в том, что около половины респондентов заявили, что у них есть внутренние принципы этического ИИ. На самом деле это несколько удивительно, поскольку всего несколько лет назад шансы на то, что таким оружием был бы гораздо меньший процент.

Вот что говорится в исследовании об изучении этики ИИ в этих стартапах в области ИИ: «Мы оцениваем эти проблемы, собирая и анализируя новые данные опроса 225 стартапов в области ИИ. Мы обнаружили, что более половины ответивших фирм придерживаются этических принципов ИИ. Однако многие из этих фирм никогда не применяли свои этические принципы искусственного интеллекта дорогостоящим образом, например, увольняя сотрудника, сбрасывая данные обучения или отказываясь от продажи».

Как следует из резких замечаний, плохая новость о принятии этики ИИ в стартапах в области ИИ заключается в том, что они могут не принимать всерьез этические принципы ИИ. Это может быть пустая болтовня.

Ты знаешь, как это бывает.

Стартап ИИ, возможно, пристыжен или принужден поверить в этику ИИ, поэтому они делают минимум того, что должны сделать, чтобы успокоить других. Возможно, они украшают свои офисы плакатами, рекламирующими этический ИИ. Основатель может произносить возвышенные речи о том, насколько важна этика ИИ. Между тем, за кулисами понятию этического ИИ уделяется мало внимания и, возможно, даже презираются или высмеиваются высокотехнологичные тяжеловесы, создающие ИИ.

Не желая показаться слишком суровыми, мы можем, по крайней мере, объявить, что чуть более половины стартапов в области ИИ заявил принять принципы этики ИИ. Я полагаю, мы можем радоваться этому откровению. Конечно, это также означает, что чуть менее половины не приняли этические принципы ИИ. Это вызывает грустное лицо.

Около половины из нас, по-видимому, получили памятку (так сказать) об этике ИИ, хотя некоторые из них, возможно, делают это просто как галочку, чтобы заявить, что они полностью привержены этичному ИИ. Затем у нас есть примерно другая половина, которая, похоже, не приняла этику ИИ. Я буду оптимистичен и скажу, что мы можем надеяться, что эти немытые ИИ-стартапы постепенно проснутся и примут этический ИИ, а ИИ-стартапы, которые безразлично относятся к своей уже принятой этике ИИ, будут яростно стремиться превратить видимость в реальность. на основе реальных практик этического ИИ.

Это смайлик.

Продолжая рассматривать результаты опроса, приведем некоторые характеристики опрошенных стартапов в области ИИ: «Фирмам, участвовавшим в нашем опросе, около четырех лет, и в них работает в среднем 36 сотрудников. Однако почти половина фирм имеет менее одиннадцати сотрудников. Несмотря на то, что опрос проводился по всему миру, большинство наших ответов поступило из более развитых стран, причем почти 80% ответов из США, Канады и Европы».

Я почти готов утверждать, что новейшие стартапы в области ИИ, вероятно, с большей вероятностью будут придерживаться этики ИИ, чем те, которые уже прошли несколько лет своего пути. Так называемая «ДНК бизнеса» стартапа часто определяется при его первоначальной формулировке. И поскольку труба об этичном ИИ сейчас громко звучит, те стартапы ИИ, которые только начинают развиваться, по-видимому, будут принимать этику ИИ. Стартапы, запущенные несколько лет назад, могли пропустить существующие тревожные звоночки об этичном ИИ. Таким образом, для некоторых из них фундаментальные корни их стартапа не могут быть легко вырваны с корнем, чтобы теперь включить этику ИИ.

Последнее замечание заслуживает дополнительного внимания.

Вы можете подумать, что если сейчас есть преимущества в принятии этики ИИ, разумнее всего было бы, чтобы уже существующие стартапы ИИ присоединились к этой победе. Это может случиться.

С другой стороны, тон и мышление основателя, как правило, высечены из камня, и, соответственно, стартап в области ИИ тоже несколько нагружен бетоном. Основателю может быть очень трудно изменить свои взгляды и соответствующим образом изменить стартап. Я много писал о важности того, чтобы основатели стартапов могли меняться по мере необходимости, хотя немногие знают, как это сделать, и, к сожалению, позволяют своему стартапу соответственно неуклюже (см. ссылка здесь).

Возвращаясь к исследованию, обнаружившему, что, возможно, принятие этики ИИ некоторыми стартапами в области ИИ не было сделано всерьез, мы должны изучить этот вопрос.

Возникает вопрос, как мы можем доказать, что стартап ИИ действительно соблюдает этические принципы ИИ. Установить это намного сложнее, чем может показаться на первый взгляд. Один из способов выяснить это — погрузиться в кодирование ИИ и посмотреть, сможем ли мы найти программную поддержку этики ИИ. Точно так же мы могли бы попробовать протестировать систему ИИ, чтобы увидеть, нарушает ли она этику ИИ. В целом, это технологически ориентированный способ выявления приверженности этичному ИИ.

Другим не менее ценным подходом было бы посмотреть, отражают ли бизнес-решения стартапа ИИ декларативную веру в этический ИИ. Соответствуют ли действия стартапа ИИ словам стартапа ИИ, поскольку они утверждают, что этика ИИ жизненно важна и показательна для фирмы?

В ходе опроса был изучен этот подход и сделаны следующие выводы: «Набор этических принципов ИИ сам по себе не важен, если фирмы не придерживаются этих принципов. В ходе опроса мы попросили фирмы, придерживающиеся политик ИИ, предоставить дополнительную информацию о том, как соблюдение этих политик влияет на результаты их бизнеса, чтобы определить, соблюдаются ли этические политики, а не просто сигналы для инвесторов. Более половины фирм с принципами ИИ получили по крайней мере один дорогостоящий бизнес-результат, потому что они придерживались своих этических принципов ИИ».

Дело в том, что если ИИ-стартап решил убедиться, что каучук этики ИИ отвечает требованиям, то, скорее всего, бизнес-результаты довольно дорогостоящего характера, которые придется понести. Деньги решают, как говорится. Стартап ИИ, который, возможно, увольняет кого-то за несоблюдение этических принципов ИИ или вынужден заново нанимать кого-то, чтобы помочь в достижении этики ИИ, вкладывает свои деньги в то, что говорит. Это особенно важно для стартапов в области ИИ, поскольку они, как правило, существуют наименьшей суммой денег, и им приходится тратить каждый доллар, который они могут. Таким образом, любые затраты, которые идут на принятие принципа этического ИИ, можно интерпретировать как серьезный выбор, сигнализирующий о твердом убеждении в этичности ИИ.

Мы должны быть осторожны, прибегая к несправедливым рассуждениям в таких вопросах. Запуск ИИ с самого начала, возможно, подпитывал этический ИИ во всем его существовании. В этом случае им, возможно, позже не придется принимать какие-либо дорогостоящие решения, ориентированные на этику ИИ. Таким образом, мы бы сделали несколько ошибочный вывод, что если у них нет этих последующих дорогостоящих действий, они не очень серьезно относятся к этичному ИИ. Это форма того, что иногда называют предвзятостью выжившего. Возможно, мы имеем дело только с фирмами, которые изначально пропустили закладку фундамента этики ИИ и оказали им должное доверие, когда позже они попытаются исправить свой ранее ошибочный корабль.

Я также хотел бы затронуть еще одну важную тему о том, почему ИИ-стартапы в настоящее время в большей степени перенимают этику ИИ.

Несколько минут назад я упомянул, что опытные инвесторы в области ИИ теперь, как правило, требуют, чтобы стартапы, которые они финансируют, демонстрировали решительное отношение к этичному ИИ. Есть и другие способы, которыми это возникает. Например, крупные технологические фирмы, разрабатывающие ИИ, быстро перенимают этику ИИ, тем более что они понимают, что становятся большой мишенью, когда их ИИ нарушает этические нормы. В свою очередь, эти крупные технологические фирмы часто призывают стартапы ИИ также внедрять этический ИИ.

Вот основа для такого мышления.

Многие крупные технологические фирмы время от времени решают купить ИИ-стартап, делая это, чтобы улучшить свой собственный ИИ или позволить им быстрее выйти на новый рынок, который ИИ открывает для их усилий. Эти крупные технологические фирмы имеют в штате множество адвокатов и хорошо знают об опасности быть пойманным на использовании неэтичного ИИ. Все это означает, что если стартап ИИ уже проделал всю работу по внедрению этики ИИ, крупной технологической фирме, желающей купить их, будет легче решиться на это.

Противоположная картина заключается в том, что если стартап ИИ не смог принять этику ИИ, он теперь становится проблемным ребенком, когда дело доходит до более крупной технологической фирмы, желающей купить или инвестировать в многообещающее предприятие. Станет ли потенциально неэтичный ИИ хвостом, который виляет собакой? Сколько денег потребуется, чтобы превратить стартап ИИ в более этичное стремление к ИИ? Стоит ли вероятная задержка таких вложений, или вместо этого им следует найти какой-нибудь другой ИИ-стартап, который уже с первого дня внедрил этику ИИ?

Основатель ИИ должен подумать об этих важных соображениях.

Когда ИИ-стартап задумывается впервые, лучший способ продолжить работу состоит в том, чтобы подумать о потенциальной стратегии роста (и, аналогично, о жизнеспособной стратегии выхода). Вы должны укрываться все вместе с шансами, что более крупная рыба захочет сожрать вас. Некоторым предпринимателям эта идея нравится, а некоторым нет, и они настаивают на том, чтобы действовать самостоятельно. В любом случае, когда более крупная фирма стучится в дверь, искушение получить огромный приток наличных денег, который может поддерживать жизнь вашего ребенка, весьма заманчиво. Вы должны спланировать этот день с выгодой для себя (но никаких гарантий) и убедиться, что вас не поймают у алтаря так, что предложенный брак внезапно развалится из-за открытия, что Этический ИИ не был основой вашего стартапа в области ИИ.

Я полагаю, что это своего рода пряник, но мы также должны учитывать и кнут (то есть печально известный взгляд на жизнь как кнут и пряник).

Быстро принимаются новые законы об ИИ, см. мой обширный репортаж на ссылка здесь.

Дикие вещи, которые несколько лет назад сошли с рук стартапам ИИ, постепенно будут кодифицированы в законе как нечто, что теперь более четко заявлено как категорически незаконное. Если ИИ-стартап строго придерживается этики ИИ, скорее всего, он также остается в рамках закона. Это не обязательно так, но это, безусловно, более вероятно, и также может быть несколько правдоподобно аргументировано в судебном деле как подобие того, как стартап ИИ искренне пытался создать законный ИИ.

Хорошо, тогда у нас есть пряник в виде более крупной технологической фирмы, которая может захотеть купить или инвестировать в стартап ИИ, что было бы проще сделать, если бы стартап ИИ использовал этический ИИ. У нас также есть ряд новых законодательных и нормативных актов, направленных на ИИ, которые могут стать потенциальной правовой миной для стартапов в области ИИ, не помнящих об этике ИИ. В общем, это мощный удар один-два, который говорит, что осведомленный предприниматель в области ИИ должен осознанно стремиться к этичному ИИ.

Опрос в целом показал, что этот двойной удар подтверждается полученными ответами: «Из наших результатов видно, что многие стартапы ИИ знают о возможных этических проблемах, и более половины предприняли шаги, предоставив систематизированные принципы ИИ для направлять свою фирму. Тем не менее, фирмы с предшествующими ресурсами, такими как отношения по обмену данными с более крупными высокотехнологичными фирмами и предыдущий опыт регулирования с GDPR, с большей вероятностью будут действовать в соответствии с этими принципами существенным образом» (ссылка на GDPR является признаком Общего регламента ЕС по защите данных). Регламент о защите данных, который является законом ЕС, регулирующим аспекты конфиденциальности и защиты данных).

На протяжении всего обсуждения этики ИИ я предполагал, что вы уже знакомы с общими аспектами этического ИИ. Я также сделал некоторые предположения об ИИ. Мы должны изучить эти вопросы, прежде чем мы углубимся в разгадку стартапа ИИ и загадки этики ИИ.

Один конкретный сегмент или часть этики ИИ, которая привлекает большое внимание средств массовой информации, состоит из ИИ, который демонстрирует неблагоприятные предубеждения и несправедливость. Возможно, вы знаете, что, когда началась последняя эра ИИ, произошел огромный всплеск энтузиазма по поводу того, что некоторые сейчас называют AI для хорошего. К сожалению, вслед за этим нахлынувшим волнением мы стали свидетелями AI для плохих. Например, было обнаружено, что различные системы распознавания лиц на основе ИИ содержат расовые и гендерные предубеждения, о которых я говорил в ссылка здесь.

Попытки дать отпор AI для плохих активно ведутся. К тому же голосистый юридически стремления обуздать правонарушения, есть также существенный толчок к принятию этики ИИ, чтобы исправить подлость ИИ. Идея состоит в том, что мы должны принять и одобрить ключевые принципы этического ИИ для разработки и внедрения ИИ, чтобы подорвать AI для плохих и одновременно провозглашая и продвигая предпочтительные AI для хорошего.

Что касается связанного с этим понятия, я сторонник попыток использовать ИИ как часть решения проблем ИИ, борясь с огнём огнём в таком образе мышления. Мы могли бы, например, встроить этические компоненты ИИ в систему ИИ, которая будет отслеживать, как остальные части ИИ делают что-то, и, таким образом, потенциально в режиме реального времени выявлять любые попытки дискриминации, см. мое обсуждение на ссылка здесь. У нас также может быть отдельная система ИИ, которая действует как своего рода монитор этики ИИ. Система ИИ служит наблюдателем, чтобы отслеживать и обнаруживать, когда другой ИИ уходит в неэтичную пропасть (см. мой анализ таких возможностей на ссылка здесь).

Через мгновение я поделюсь с вами некоторыми всеобъемлющими принципами, лежащими в основе этики ИИ. Есть много таких списков, плавающих то здесь, то там. Можно сказать, что единого списка универсальной привлекательности и согласованности пока не существует. Это неприятная новость. Хорошая новость заключается в том, что, по крайней мере, существуют легкодоступные списки этики ИИ, и они, как правило, очень похожи. Все это говорит о том, что с помощью своего рода обоснованной конвергенции мы находим путь к общей общности того, из чего состоит этика ИИ.

Во-первых, давайте кратко рассмотрим некоторые из общих этических принципов ИИ, чтобы проиллюстрировать, что должно быть жизненно важным соображением для любого, кто занимается созданием, развертыванием или использованием ИИ.

Например, как заявил Ватикан в Рим призывает к этике ИИ и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Прозрачность: В принципе, системы ИИ должны быть объяснимыми
  • Включение: Потребности всех людей должны приниматься во внимание, чтобы каждый мог получить пользу, и всем людям могли быть предложены наилучшие условия для самовыражения и развития.
  • Обязанность: Те, кто разрабатывает и развертывает использование ИИ, должны действовать ответственно и прозрачно.
  • Беспристрастность: Не создавайте и не действуйте предвзято, тем самым защищая справедливость и человеческое достоинство.
  • Надежность: Системы искусственного интеллекта должны работать надежно
  • Безопасность и конфиденциальность: Системы искусственного интеллекта должны работать безопасно и уважать конфиденциальность пользователей.

Как заявило Министерство обороны США (DoD) в своем Этические принципы использования искусственного интеллекта и как я подробно рассказал в ссылка здесь, это их шесть основных этических принципов ИИ:

  • Ответственный: Персонал Министерства обороны будет проявлять надлежащий уровень суждений и осторожности, оставаясь при этом ответственным за разработку, развертывание и использование возможностей ИИ.
  • Равный: Департамент предпримет преднамеренные шаги, чтобы свести к минимуму непреднамеренную предвзятость в возможностях ИИ.
  • Прилагается: Возможности ИИ Департамента будут разрабатываться и внедряться таким образом, чтобы соответствующий персонал обладал надлежащим пониманием технологий, процессов разработки и методов работы, применимых к возможностям ИИ, включая прозрачные и проверяемые методологии, источники данных, процедуры проектирования и документацию.
  • Надежность: Возможности ИИ Департамента будут иметь явное, четко определенное использование, а безопасность, защищенность и эффективность таких возможностей будут подвергаться тестированию и проверке в рамках этих определенных видов использования на протяжении всего их жизненного цикла.
  • управляема: Департамент разработает и спроектирует возможности искусственного интеллекта для выполнения их предполагаемых функций, обладая при этом способностью обнаруживать и предотвращать непредвиденные последствия, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Я также обсудил различные коллективные анализы этических принципов ИИ, в том числе осветил набор, разработанный исследователями, которые изучили и обобщили суть многочисленных национальных и международных этических принципов ИИ в статье, озаглавленной «Глобальный ландшафт руководящих принципов этики ИИ» (опубликовано в природа), и что мое освещение исследует в ссылка здесь, что привело к этому списку ключей:

  • Прозрачность
  • Справедливость и справедливость
  • Безвредность
  • Ответственность
  • Политика
  • благодеяние
  • Свобода и автономия
  • Доверие
  • Стабильность
  • чувство собственного достоинства
  • солидарность

Как вы могли догадаться, попытаться определить особенности, лежащие в основе этих принципов, может быть чрезвычайно сложно. Более того, попытка превратить эти общие принципы во что-то вполне осязаемое и достаточно подробное, чтобы его можно было использовать при создании систем ИИ, также является крепким орешком. В целом легко махать руками о том, что такое этические предписания ИИ и как их следует соблюдать в целом, в то время как гораздо сложнее ситуация, когда кодирование ИИ должно быть настоящей резиной, которая встречает дорогу.

Принципы этики ИИ должны использоваться разработчиками ИИ, а также теми, кто управляет усилиями по разработке ИИ, и даже теми, кто в конечном итоге устанавливает и обслуживает системы ИИ. Все заинтересованные стороны на протяжении всего жизненного цикла разработки и использования ИИ рассматриваются в рамках соблюдения установленных норм этического ИИ. Это важный момент, поскольку обычно предполагается, что «только программисты» или те, кто программирует ИИ, должны придерживаться понятий этики ИИ. Как указывалось ранее, для разработки и внедрения ИИ требуется целая деревня, и для этого вся деревня должна разбираться в принципах этики ИИ и соблюдать их.

Давайте также убедимся, что мы на одной волне в отношении природы современного ИИ.

Сегодня нет разумного ИИ. У нас этого нет. Мы не знаем, возможен ли разумный ИИ. Никто не может точно предсказать, достигнем ли мы разумного ИИ, и не возникнет ли разумный ИИ каким-то чудесным образом спонтанно в форме вычислительной когнитивной сверхновой (обычно называемой сингулярностью, см. мое освещение на ссылка здесь).

Тип ИИ, на котором я сосредоточен, состоит из неразумного ИИ, который мы имеем сегодня. Если бы мы хотели дико рассуждать о чувствующий AI, эта дискуссия может пойти в совершенно ином направлении. Предполагалось, что разумный ИИ будет человеческого качества. Вам нужно будет учитывать, что разумный ИИ является когнитивным эквивалентом человека. Более того, поскольку некоторые предполагают, что у нас может быть сверхразумный ИИ, вполне возможно, что такой ИИ может оказаться умнее людей (о моем исследовании сверхразумного ИИ как возможности см. покрытие здесь).

Давайте будем более приземленными и рассмотрим современный вычислительный неразумный ИИ.

Поймите, что сегодняшний ИИ не способен «думать» никоим образом наравне с человеческим мышлением. Когда вы взаимодействуете с Alexa или Siri, разговорные способности могут показаться человеческими, но реальность такова, что они вычислительные и лишены человеческого познания. В новейшей эре искусственного интеллекта широко используются машинное обучение (ML) и глубокое обучение (DL), которые используют сопоставление вычислительных шаблонов. Это привело к системам искусственного интеллекта, которые имеют сходство с человеческими наклонностями. Между тем, сегодня нет ни одного ИИ, который обладал бы хотя бы подобием здравого смысла и не обладал бы когнитивным чудом крепкого человеческого мышления.

ML/DL — это форма сопоставления вычислительных шаблонов. Обычный подход заключается в том, что вы собираете данные о задаче принятия решения. Вы вводите данные в компьютерные модели ML/DL. Эти модели стремятся найти математические закономерности. После обнаружения таких шаблонов, если они будут обнаружены, система ИИ будет использовать эти шаблоны при обнаружении новых данных. При представлении новых данных шаблоны, основанные на «старых» или исторических данных, применяются для вынесения текущего решения.

Я думаю, вы можете догадаться, куда это направляется. Если люди, которые принимали решения по образцу, вносили неблагоприятные предубеждения, велика вероятность того, что данные отражают это неуловимым, но существенным образом. Сопоставление вычислительных шаблонов машинного обучения или глубокого обучения просто попытается математически имитировать данные соответствующим образом. Нет никакого подобия здравого смысла или других разумных аспектов моделирования, созданного ИИ, как такового.

Более того, разработчики ИИ тоже могут не понимать, что происходит. Загадочная математика в ML/DL может затруднить выявление скрытых предубеждений. Вы справедливо надеетесь и ожидаете, что разработчики ИИ проведут проверку на наличие потенциально скрытых предубеждений, хотя это сложнее, чем может показаться. Существует большая вероятность того, что даже при относительно обширном тестировании в моделях сопоставления с образцом ML/DL все еще будут предубеждения.

Вы могли бы в некоторой степени использовать известную или печально известную поговорку о мусоре в мусоре. Дело в том, что это больше похоже на предубеждения, которые коварно внедряются, когда предубеждения погружаются в ИИ. Алгоритм принятия решений (ADM) ИИ аксиоматически становится нагруженным неравенствами.

Нехорошо.

Могу поспорить, что на данном этапе этого серьезного обсуждения вам нужны наглядные примеры, которые могли бы продемонстрировать стартап ИИ и этические обстоятельства ИИ. Есть особый и, несомненно, популярный набор примеров, близких моему сердцу. Видите ли, в моем качестве эксперта по ИИ, включая этические и юридические последствия, меня часто просят указать реалистичные примеры, демонстрирующие дилеммы этики ИИ, чтобы можно было легче понять несколько теоретический характер темы. Одной из самых запоминающихся областей, которая ярко представляет это этическое затруднение ИИ, является появление настоящих беспилотных автомобилей на основе ИИ. Это послужит удобным вариантом использования или образцом для обширного обсуждения темы.

Вот тогда примечательный вопрос, над которым стоит задуматься: Проясняет ли появление настоящих беспилотных автомобилей на основе ИИ что-либо о стартапах ИИ и этичном ИИ, и если да, то что это демонстрирует?

Позвольте мне немного раскрыть вопрос.

Во-первых, обратите внимание, что в настоящей самоуправляемой машине нет водителя-человека. Имейте в виду, что настоящие беспилотные автомобили управляются с помощью системы вождения с искусственным интеллектом. Нет необходимости в водителе-человеке за рулем, и при этом не предусмотрено, чтобы человек управлял транспортным средством. Мой обширный и постоянный обзор автономных транспортных средств (AV) и особенно беспилотных автомобилей см. ссылка здесь.

Я хотел бы дополнительно прояснить, что имеется в виду, когда я говорю об истинных беспилотных автомобилях.

Понимание уровней самоуправляемых автомобилей

В качестве пояснения, настоящие беспилотные автомобили - это автомобили, в которых ИИ управляет автомобилем полностью самостоятельно, и во время вождения не требуется никакой помощи человека.

Эти беспилотные автомобили относятся к Уровню 4 и Уровню 5 (см. Мое объяснение на эта ссылка здесь), в то время как автомобиль, который требует, чтобы водитель-человек совместно управлял процессом, обычно считается уровнем 2 или уровнем 3. Автомобили, которые совместно выполняют задачу вождения, описываются как полуавтономные и обычно содержат множество автоматизированные надстройки, которые называются ADAS (Advanced Driver-Assistance Systems).

Настоящего самоуправляемого автомобиля 5-го уровня пока нет, и мы даже не знаем, удастся ли этого достичь и сколько времени потребуется, чтобы добраться до него.

Между тем, усилия Уровня 4 постепенно пытаются набрать обороты, проходя очень узкие и избирательные испытания на дорогах общего пользования, хотя есть разногласия по поводу того, следует ли разрешать это испытание как таковое (мы все - подопытные кролики на жизнь или смерть в эксперименте. происходит на наших автомагистралях и переулках, некоторые утверждают, что см. мои статьи на эта ссылка здесь).

Поскольку полуавтономным автомобилям требуется водитель-человек, принятие этих типов автомобилей не будет заметно отличаться от вождения обычных транспортных средств, поэтому по сути их не так много, чтобы рассказать о них по этой теме (хотя, как вы увидите, в следующий момент, пункты, сделанные ниже, обычно применимы).

Для полуавтономных автомобилей важно, чтобы общественность была предупреждена о тревожном аспекте, который возник в последнее время, а именно о том, что, несмотря на то, что водители-люди, которые продолжают публиковать видео, засыпают за рулем автомобиля уровня 2 или уровня 3 Мы все должны избегать заблуждения, полагая, что водитель может отвлечь их внимание от задачи вождения во время вождения полуавтономного автомобиля.

Вы несете ответственность за действия по вождению транспортного средства, независимо от того, сколько автоматизации может быть добавлено на уровень 2 или уровень 3.

Беспилотные автомобили и стартапы в области ИИ с этическим ИИ

Для 4-го и 5-го уровня настоящих автомобилей с автоматическим управлением, в управлении автомобилем не будет водителя-человека.

Все пассажиры будут пассажирами.

ИИ делает вождение.

Один аспект, который следует немедленно обсудить, заключается в том, что ИИ, задействованный в сегодняшних системах управления ИИ, неразумен. Другими словами, ИИ - это совокупность компьютерных программ и алгоритмов, и совершенно очевидно, что они не способны рассуждать так же, как люди.

Почему этот дополнительный акцент делается на том, что ИИ не чувствителен?

Потому что я хочу подчеркнуть, что, обсуждая роль управляющей системы ИИ, я не приписываю ИИ человеческие качества. Имейте в виду, что в наши дни существует постоянная и опасная тенденция к антропоморфизации ИИ. По сути, люди придают человеческий разум сегодняшнему ИИ, несмотря на тот неоспоримый и бесспорный факт, что такого ИИ еще не существует.

С этим пояснением вы можете представить себе, что система вождения AI изначально не «знает» о аспектах вождения. Вождение и все, что с ним связано, необходимо будет программировать как часть аппаратного и программного обеспечения беспилотного автомобиля.

Давайте погрузимся в бесчисленное множество аспектов, связанных с этой темой.

Во-первых, важно понимать, что не все автомобили с искусственным интеллектом одинаковы. Каждый автопроизводитель и технологическая фирма, занимающаяся беспилотным вождением, использует свой подход к разработке беспилотных автомобилей. Таким образом, трудно делать опрометчивые заявления о том, что будут делать или не делать системы управления ИИ.

Более того, всякий раз, когда утверждается, что система управления ИИ не выполняет каких-либо конкретных действий, позже это может быть опровергнуто разработчиками, которые фактически программируют компьютер именно на это. Шаг за шагом системы управления искусственным интеллектом постепенно улучшаются и расширяются. Существующее сегодня ограничение может больше не существовать в будущей итерации или версии системы.

Я верю, что это дает достаточный перечень предостережений, чтобы обосновать то, что я собираюсь рассказать.

Сейчас мы готовы глубоко погрузиться в беспилотные автомобили и возможности этического ИИ, связанные со стартапами ИИ.

Небольшой урок истории в порядке.

Когда началась первая схватка между компаниями по производству беспилотных автомобилей с искусственным интеллектом, вопросам этики искусственного интеллекта уделялось очень мало внимания. В те дни в центре внимания была обычная техническая озабоченность тем, можно ли изобрести ИИ для управления автомобилем. Мысль в основном заключалась в том, что если могут возникнуть какие-либо сомнения в этике ИИ, не было особых оснований для беспокойства по этому поводу до тех пор, пока не удастся вкратце «доказать», что способность ИИ управлять автомобилем вполне осуществима.

Быть чрезмерно озабоченным какой-либо этикой ИИ было сродни тому, чтобы ставить телегу впереди лошади, как некоторые предположили бы в то время.

Кроме того, было не так много понимания того, как можно изменить ИИ таким образом, чтобы он действительно работал неэтичным образом. Обычно предполагалось, что разработчику ИИ нужно будет изо всех сил стараться целенаправленно создавать ИИ, который не соответствует этическим нормам. Только злодеи, коварно создававшие ИИ, могли бы сделать это.

Возможно, вы знаете, что в конечном итоге сфера этики ИИ неизбежно догнала тех, кто создает и внедряет автономные транспортные средства с искусственным интеллектом. Различные нечестные действия управляющих систем ИИ (как плохо продуманные, так и временами недоработанные) привели к осознанию того, что что-то нужно делать. В своей многолетней колонке я вел хронику постепенных изменений этического ИИ, в том числе о том, что большинство, если не почти все добросовестные технологические фирмы, занимающиеся самоуправлением, в конечном итоге назначили руководителей высшего уровня, ответственных за внедрение этики ИИ во всем мире. их фирмы (см. мой репортаж на ссылка здесь).

При этом я не хочу, чтобы у меня сложилось впечатление, что вопрос этического ИИ каким-то образом полностью улегся в сегодняшних беспилотных автомобилях с ИИ. Уверяю вас, что нам еще многое предстоит сделать. Например, как я неоднократно утверждал, по сей день не уделяется должного внимания этическим вопросам ИИ, вызванным знаменитой или печально известной проблемой вагонетки. Подробнее об этом нерешенном вопросе см. в моем обсуждении на ссылка здесь и ссылка здесь.

Следует также понимать, что в целом большинство компаний, занимающихся самоуправляемыми автомобилями, больше не считаются стартапами с искусственным интеллектом. Они находятся далеко за пределами фазы запуска. Некоторые из них выросли сами по себе. Некоторые из них были куплены более крупной фирмой, например, автопроизводителем или фирмой по доставке. И т. д.

При таком рассмотрении можно утверждать, что в настоящее время они в целом могут позволить себе придерживаться этики ИИ. Они полны наличными и имеют возможность управлять своими фирмами менее голодным способом. Они также, как правило, более подвержены риску, поскольку, если они не соблюдают этический ИИ, их за это вызовут.

Когда ваши беспилотные автомобили мчатся по дорогам общего пользования, любые этические нарушения ИИ обязательно будут замечены и широко освещены. Материнская компания, владеющая беспилотным автомобилем с искусственным интеллектом, потерпит серьезное поражение в глазах общественности и, возможно, сильно пострадает на фондовом рынке. По ряду причин вес этики ИИ имеет тенденцию быть относительно ценным, но, конечно, это не всегда так, и вы можете поспорить, что будут возникать упущения.

Означает ли это, что в этой нише нет стартапов в области ИИ и, следовательно, нет необходимости обсуждать их принятие этики ИИ в этой нише?

Может показаться, что это так, поскольку заголовки обычно посвящены крупным компаниям, занимающимся технологиями самостоятельного вождения. Если вы случайно не обращаете особое внимание на эту нишу, вы можете подумать, что в этой области нет новых стартапов. Кажется, что во всем этом лабиринте доминируют относительно устоявшиеся компании, и вся деятельность по запуску либо была ранее завершена, либо не может получить никакого развития, поскольку рынок забит сегодняшними властными большими дубами.

Вы были бы неправы, делая такое предположение о стартапах ИИ в этой области. Впереди еще довольно много действий. Разница в том, что в настоящее время стартапы ИИ, как правило, нацелены на часть пирога, а не на весь пирог. В прошлые дни стартапы ИИ, как правило, хотели создать автомобиль с искусственным интеллектом с нуля, делая все от А до Я. быть будто. Это стало твоим походным приказом.

Вероятность запуска такого стартапа ИИ сегодня относительно невелика. Вместо этого стартапы ИИ в нише беспилотных автомобилей, как правило, имеют дело с определенными компонентами или подмножествами того, из чего состоят беспилотные автомобили ИИ. Это происходит довольно часто в сенсорном наборе беспилотных автомобилей. У вас есть постоянное появление стартапов в области ИИ, которые концентрируются на определенном типе датчика или конкретном алгоритме ИИ, чтобы лучше интерпретировать данные, собранные датчиком определенного типа.

В целом, вопрос о том, как заставить стартапы ИИ принять этику ИИ, все еще актуален и актуален в сфере автономных транспортных средств и беспилотных автомобилей.

Консультируя все стартапы ИИ, в том числе в области автономных транспортных средств, я придумал свои любимые советы или рекомендации по этим вопросам.

На вкус вот моя определенная десятка лучших:

1) Основатель должен быть или стать прозелитиком этики ИИ, иначе остальная часть стартапа ИИ не поймет, что тема достойна доступного скудного внимания и уже перегруженных усилий (все начинается сверху).

2) Основатель вряд ли полностью поймет, что влечет за собой этический ИИ, и должен быть в курсе, чтобы его понимание темы соответствовало его страсти к ней (знайте, о чем вы говорите).

3) Пустые банальности основателя об этике ИИ полностью подорвут стартап-команды и превратят знамя этического ИИ в бесполезный флаг, лишенный какого-либо содержания (не отравляйте воду).

4) Обязательно свяжите этические принципы ИИ с конкретными обязанностями и действиями, связанными с проектированием, созданием, тестированием и вводом в действие ИИ (в противном случае возникнет огромный и непреодолимый разрыв, и ваши команды не смогут соединить точки).

5) Внедрить разумную методологию разработки ИИ, которая либо уже включает этические принципы ИИ, либо может быть разумно модифицирована должным образом и без чрезмерного отвлечения внимания (надлежащая методология будет беспрепятственно направлять команды на пути к достижению этических результатов ИИ).

6) Обеспечьте надлежащее обучение команд этике ИИ и убедитесь, что это делается с неизбежной практичностью и практическим подходом (высокое обучение мало что даст и, вероятно, вызовет негативную реакцию из-за того, что, казалось бы, было потрачено впустую драгоценное время).

7) Установить соответствующие средства вознаграждения команд за использование этического ИИ в их повседневных усилиях, включая заметное признание со стороны основателя, денежные или другие бонусы, дружеские оценочные листы и соревнования и тому подобное (говорить, ходить, говорить).

8) Наймите доверенное лицо со стороны для периодической проверки принятия этики ИИ, предоставляя независимую точку зрения, чтобы увидеть, как обстоят дела на самом деле (откажитесь от внутренних банальностей и посмотрите на мир таким, какой он есть на самом деле).

9) Обязательно информируйте своих инвесторов и других заинтересованных лиц о ваших действиях и внедрении этического ИИ, поскольку в противном случае они, вероятно, решат, что вы ничего не делаете для этого, и могут непреднамеренно внезапно стать тираническими, когда в усилиях по ИИ возникнут проблемы (гордитесь и громко заявляйте о своих стремлениях к этике ИИ).

10) Держите руку на пульсе этического ИИ, поскольку он бесконечен и нуждается в постоянной поддержке и усилении (откладываете — проигрываете).

У меня есть еще много рекомендаций по организационному внедрению этики ИИ, и я буду постепенно освещать их в последующих публикациях. Быть в курсе.

Заключение

Стакан наполовину полон и наполовину пуст.

Согласно ранее цитируемому опросу, примерно половина опрошенных стартапов ИИ придерживались этики ИИ, и поэтому мы можем предположить, что около половины этого не сделали. Однако мы также знаем, что даже если стартап ИИ заявил, что использует этический ИИ, он мог не сделать этого в какой-либо существенной форме. Очень легко и удобно просто исповедовать дело на словах.

Давление, возникающее из-за требований сообразительных инвесторов, несомненно, повысит темпы и долю стартапов в области ИИ, которые вольно или невольно решат погрузиться с головой в область этики ИИ. Точно так же призрак судебных исков и судебного преследования за уголовные деяния в результате нарушения недавно принятых законов, связанных с ИИ, безусловно, вдохновит стартапы ИИ на совместные действия по вопросам этического ИИ.

Стоит ли игнорировать или обходить этику ИИ ради того, чтобы потерять рубашку или оказаться в тюремной камере? Я, конечно, надеюсь, что нет.

Суровая боль палки, конечно, не единственная причина для стремления принять этику ИИ. Как уже упоминалось, если вы хотите расти или, возможно, в конечном итоге выйти из своего стартапа, более крупные фирмы-покупатели захотят убедиться, что вы правильно получили этический ИИ и действительно внедрили его в свой стартап ИИ. Выгода от соблюдения этики ИИ ощутима и огромна. Морковка хороша.

В качестве последнего комментария, на данный момент мы все знаем, что те, кто работает в области технологий, любят обильно рекламировать броские лозунги. Стройте будущее. Выйти за пределы. Ориентируйтесь на данные. Со щитом или на щите.

И нужно добавить еще одно: Энергично придерживайтесь этики ИИ.

Живи этим, делай так, верь в это.

Источник: https://www.forbes.com/sites/lanceeliot/2022/04/21/ai-startups-finally-getting-onboard-with-ai-ethics-and-loving-it-include-those-newbie- автономные-самоуправляемые-автомобили-технические-фирмы-тоже/