Сможет ли Илон Маск добиться успеха в разработке генеративного искусственного интеллекта ChatGPT, подделки «TruthGPT», который был бы стоически правдивым во все времена, спрашивает этика и закон об искусственном интеллекте

В дверь каюты стучат.

Должны ли мы открыть дверь?

Фильмы обычно предполагают, что мы не должны позволять нашему любопытству взять верх над нами, а именно, мы абсолютно точно никогда не должны открывать дверь. Что ж, как говорится, решение оставить дверь закрытой, похоже, не будет достойным рассказом. Кажется, что нас тянет к волнению и неизвестности.

Итак, идем дальше и открываем дверь.

В данном конкретном случае я имею в виду некую появляющуюся болтовню в области искусственного интеллекта (ИИ), которая предвещает либо хорошие, либо худшие времена для всех нас. Ситуация потенциально влечет за собой будущее ИИ. И, следовательно, можно серьезно предположить, что будущее ИИ включает в себя довольно драматические последствия, в том числе якобы формирующие будущее общества и судьбу человечества.

Вот сделка.

Согласно недавним новостным сообщениям, Илон Маск, временами самый богатый человек в мире, выискивал первоклассных исследователей ИИ, чтобы те присоединились к новому предприятию в области ИИ, которое он задумал. К различным разработчикам ИИ и ученым по ИИ незаметно обращаются. Стук в их дверь, по-видимому, сулит большие надежды и потенциально прибыльные новости.

Предполагается, что предполагаемая суть инициативы искусственного интеллекта, которая еще не раскрыта, является подделкой широко и чрезвычайно популярного ChatGPT, выпущенного OpenAI еще в ноябре. Вы почти наверняка слышали или видели кричащие заголовки о ChatGPT. Сейчас я объясню подробнее, что такое ChatGPT. Вы также должны знать, что ChatGPT является примером типа ИИ, известного как Генеративный ИИ. В наши дни существует множество приложений для генеративного ИИ. ChatGPT имеет самый высокий общественный статус и, по-видимому, известен всем, даже, возможно, тем, кто каким-то образом живет в пещере.

Вот пример репортажа об этой полусекретной быстро развивающейся саге:

  • «В последние недели Илон Маск обратился к исследователям искусственного интеллекта с предложением создать новую исследовательскую лабораторию для разработки альтернативы ChatGPT, высококлассному чат-боту, созданному стартапом OpenAI. на разговорах» (Информация, «Борьба с «пробудившимся ИИ», Маск набирает команду для разработки конкурента OpenAI», Джон Виктор и Джессика Э. Лессин, 27 февраля 2023 г.).

Ваша первая мысль может заключаться в том, что если Илон Маск хочет создать подделку ChatGPT, это зависит от него и от того, как он хочет потратить свои деньги. Удачи. Он просто добавит к уже существующему и растущему количеству генеративных приложений ИИ. Возможно, он заработает дополнительное состояние на собственной доморощенной версии ChatGPT. Или, возможно, это будет большой вздор, и крошечная вмятина в его огромном богатстве из-за скромно затратного занятия будет сродни ошибке округления в бухгалтерии.

Вместо здоровенного стука в дверь, предположительно, это больше похоже на скромный тук-тук-тук в дверь.

Приготовьтесь к повороту.

Считается, что Илон Маск хочет встряхнуть основу современных приложений для генеративного ИИ и воссоздать некоторые важные аспекты того, как они работают и что они производят. Как я кратко объясню здесь, распространенное и искреннее сомнение в отношении современного генеративного ИИ заключается в том, что он может генерировать ошибки, ложь и так называемые галлюцинации ИИ. Любой, кто использовал генеративный ИИ, несомненно, сталкивался с этими неприятными проблемами. Судя по всему, Илон Маск надеется сократить и, возможно, каким-то образом устранить подобные аномалии и проблемные наклонности.

Это кажется явно стоящим и почетным стремлением. На самом деле, пожалуйста, знайте, что почти или, возможно, я могу сказать, что все разработчики генеративного ИИ изо всех сил стремятся уменьшить вероятность выводимых ошибок, ложных сведений и галлюцинаций ИИ. Вам будет трудно найти хоть одну разумную душу, которая будет настаивать на том, чтобы мы сохранили эти ошибки, ложь и галлюцинации ИИ, укоренившиеся в генеративном ИИ.

Не делая слишком широких заявлений, можно сказать, что существует почти всеобщее согласие в том, что с болезнями генеративного ИИ, связанными с производством ошибок, лжи и галлюцинаций ИИ, нужно бороться твердо, настойчиво и решительно. Цель состоит в том, чтобы настроить, переделать, доработать, пересмотреть или тем или иным технологическим способом ИИ решить и решить эту проблему.

Каждый день, когда генеративный ИИ продолжает извергать ошибки, ложь и галлюцинации ИИ в выходных данных, — это плохой день практически для всех. Люди, использующие генеративный ИИ, обязательно будут недовольны этими испорченными выводами. Люди, которые полагаются на испорченные выходы или нуждаются в их использовании, рискуют ошибочно полагаться на что-то неправильное или, что еще хуже, направит их в опасном направлении.

Производители ИИ, пытающиеся сделать бизнес с помощью генеративного ИИ, в то же время подвергаются потенциальному юридическому риску со стороны тех, кто попадает в ловушку из-за того, что полагался на испорченные результаты. Судебные иски о возмещении убытков почти наверняка скоро возникнут. Мы можем ожидать, что регулирующие органы решат внести свой вклад, и могут быть приняты новые законы об искусственном интеллекте, чтобы поставить юридический поводок для генеративного ИИ, см. ссылка здесь. Кроме того, люди могут в конечном итоге так чертовски расстроиться из-за того, что репутация создателей ИИ будет сильно запятнана, а генеративный ИИ будет внезапно сброшен на обочину.

Итак, мы знаем, что это доблестный трюизм, что создатели ИИ и исследователи ИИ лихорадочно пытаются изобрести, спроектировать, построить и внедрить технологическое волшебство ИИ, чтобы избавиться от этих ужасных недугов, связанных с сегодняшними недугами генеративного ИИ. Илон Маск должен быть принят в свои ряды. Чем больше тем лучше. Чтобы приручить этого зверя, потребуется много таланта ИИ и денег. Добавление Илона Маска кажется обнадеживающим и обнадеживающим признаком того, что, возможно, правильное количество ракетостроения, денег и решимости найдет панацею от всех болезней ИИ.

Однако поворот наступает, когда вы начинаете открывать дверь, чтобы увидеть, что там стоит.

В довольно и, как обычно, лаконичном твите Илона Маска от 17 февраля 2023 года мы получили эту предполагаемую подсказку:

  • «Что нам нужно, так это TruthGPT»

Вот почему некоторые решают, что, возможно, дверь нужно захлопнуть и заколотить.

Почему так?

Некоторые выражают обеспокоенность тем, что «истина», лежащая в основе предполагаемого TruthGPT, может быть генеративным ИИ, который формулируется и производит результаты исключительно на основе распутывания Правда что строго соответствует представлениям одного человека о мире. Да, заламывание рук в том, что мы получим генеративное приложение ИИ, которое излучает правду, согласно Илону Маску.

Тревожно, говорят некоторые.

Некоторые увещевают дерзко и в целом тревожно.

Немедленный ответ состоит в том, что если он желает произвести свой TruthGPT, независимо от того, что он собой представляет, это его деньги, которые он должен потратить. Люди либо решат использовать его, либо нет. Те, кто его используют, должны быть достаточно проницательны, чтобы понимать, во что они ввязываются. Если они хотят результатов от этого конкретного варианта генеративного ИИ, который предположительно сформирован вокруг мировоззрения Илона Маска, они имеют право искать его. Конец истории. Двигаться дальше.

Вау, идет контраргумент, вы настраиваете людей на страшную и ужасающую западню. Будут люди, которые не поймут, что TruthGPT — это какое-то генеративное приложение искусственного интеллекта, отточенное Илоном Маском. Они попадут в ментальную ловушку, предполагая, что этот генеративный ИИ честный. В самом деле, если название останется как «TruthGPT» (или подобное), вы, конечно, естественно поверите, что это генеративный ИИ, обладающий абсолютная правда рассказать в своих выходных эссе и тексте.

Как общество, возможно, мы не должны позволять ничего не подозревающим людям попадать в такие ловушки, предупредят они.

Разрешение генеративному приложению искусственного интеллекта такого предполагаемого характера плавать вокруг и использоваться всеми людьми приведет к хаосу. Люди будут интерпретировать результаты этого TruthGPT как священную «истину», даже если полученные эссе изобилуют ошибками, ложью, галлюцинациями ИИ и всевозможными неприятными предубеждениями. Более того, даже если утверждается, что этот вариант генеративного ИИ не будет содержать ошибок, лжи и галлюцинаций ИИ, откуда нам знать, что получившийся в результате, казалось бы, очищенный ИИ не будет таить в себе чрезмерных предубеждений наряду с коварным набором дезинформации и дезинформация?

Я предполагаю, что вы можете видеть назревающие противоречия и затруднения.

На основе свободного рынка Илон Маск, по-видимому, сможет приступить к созданию любого типа генеративного ИИ, который он пожелает. То, что другие могут не одобрить его версию «правды», не должно мешать ему двигаться вперед. Пусть делает свое дело. Возможно, следует включить предупреждающее сообщение или какое-либо другое уведомление, когда кто-либо использует его, чтобы сообщить им, что они хотят запустить. Тем не менее, люди должны нести ответственность за свои действия, и если они решат использовать TruthGPT, пусть будет так.

Подождите секунду, идет еще один ответ. Предположим, что кто-то создал генеративное приложение ИИ, предназначенное для совершения злодеяний. Намерение было запутать людей. Надежда заключалась в том, чтобы разозлить и спровоцировать людей. Примем ли мы как общество такой генеративный ИИ? Хотим ли мы разрешить приложения ИИ, которые могут провоцировать людей, подрывая их психическое здоровье и, возможно, подталкивая их к неблагоприятным действиям?

На песке должна быть линия. В какой-то момент нам нужно сказать, что определенные виды генеративного ИИ являются мерзостью и не могут быть разрешены. Если мы позволим создать и внедрить необузданный генеративный ИИ, гибель и мрак неизбежно постигнут всех нас. Это будут не только те, кто использует приложение AI. Все и все, что возникает вокруг и связано с приложением ИИ, пострадают.

Это кажется убедительным аргументом.

Хотя ключевым моментом является то, что рассматриваемый генеративный ИИ должен вызывать такую ​​тревогу, что мы убедительно верим, что его предотвращение или полная его остановка заранее будет объективно необходимо. Это также поднимает множество других острых вопросов. Можем ли мы заранее объявить, что генеративный ИИ может быть настолько жестоким, что его вообще нельзя будет построить? Некоторым это кажется преждевременным. Вам нужно как минимум подождать, пока генеративный ИИ не заработает, чтобы принять такое тяжелое решение.

Просыпайтесь, — бурно отвечают некоторые, — вы неразумно выпускаете лошадь из сарая. Опасности и ущерб, вызванные высвобожденным ИИ, вырвавшейся на волю лошадью, растопчут нас повсюду. Приложение для генеративного ИИ может быть чем-то вроде классической дилеммы: попытаться загнать джина обратно в бутылку. Возможно, вы не сможете этого сделать. Вместо этого лучше держать джинна под замком или следить за тем, чтобы лошадь оставалась надежно загнанной в сарай.

Это потенциальный ураган на нашем пороге, и дверь может открыться независимо от того, что мы считаем благоразумным.

Одна вещь, которую мы можем сделать наверняка, — это сначала изучить, что ПравдаGPT может быть стиль генеративных махинаций ИИ. В сегодняшней рубрике именно этим я и займусь. Я также рассмотрю аргументированное основание высказанных сомнений, а также рассмотрю различные средства и результаты. Это время от времени будет включать ссылку на приложение ИИ ChatGPT во время этого обсуждения, так как это 600-фунтовая горилла генеративного ИИ, хотя имейте в виду, что существует множество других приложений генеративного ИИ, и они, как правило, основаны на тех же общих принципах.

Между тем, вам может быть интересно, что такое генеративный ИИ.

Давайте сначала рассмотрим основы генеративного ИИ, а затем мы сможем внимательно рассмотреть насущные вопросы.

Ко всему этому относится множество соображений по этике и закону об ИИ.

Имейте в виду, что предпринимаются постоянные усилия по внедрению этических принципов ИИ в разработку и внедрение приложений ИИ. Растущий контингент заинтересованных и бывших специалистов по этике ИИ пытается обеспечить, чтобы усилия по разработке и внедрению ИИ учитывали точку зрения AI для хорошего и предотвращение AI для плохих. Точно так же предлагаются новые законы об ИИ, которые распространяются как потенциальные решения, чтобы удержать усилия ИИ от нарушения прав человека и тому подобного. Мой постоянный и обширный обзор этики ИИ и закона об ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Разработка и обнародование этических предписаний ИИ преследуются, чтобы, как мы надеемся, предотвратить попадание общества в множество ловушек, связанных с ИИ. Мое освещение принципов этики ИИ ООН, разработанных и поддерживаемых почти 200 странами благодаря усилиям ЮНЕСКО, см. ссылка здесь. В том же духе изучаются новые законы ИИ, чтобы попытаться удержать ИИ в равновесии. Один из последних дублей состоит из набора предложенных ИИ Билль о правах которые Белый дом США недавно выпустил для определения прав человека в эпоху ИИ, см. ссылка здесь. Требуется целая деревня, чтобы удерживать ИИ и разработчиков ИИ на правильном пути и сдерживать целенаправленные или случайные закулисные усилия, которые могут подорвать общество.

Я включу в это обсуждение соображения, связанные с этикой ИИ и законом об ИИ.

Основы генеративного ИИ

Наиболее широко известный пример генеративного ИИ представлен приложением ИИ под названием ChatGPT. ChatGPT появился в общественном сознании еще в ноябре, когда он был выпущен исследовательской фирмой OpenAI в области искусственного интеллекта. С тех пор, как ChatGPT привлек огромные заголовки и удивительно превзошел отведенные ему пятнадцать минут славы.

Я предполагаю, что вы, вероятно, слышали о ChatGPT или, может быть, даже знаете кого-то, кто его использовал.

ChatGPT считается генеративным ИИ-приложением, потому что оно принимает в качестве входных данных некоторый текст от пользователя, а затем генерирует или производит вывод, который состоит из эссе. ИИ — это генератор преобразования текста в текст, хотя я описываю ИИ как генератор преобразования текста в эссе, поскольку это более ясно объясняет, для чего он обычно используется. Вы можете использовать генеративный ИИ для составления длинных композиций или заставить его предлагать довольно короткие содержательные комментарии. Это все по вашему желанию.

Все, что вам нужно сделать, это ввести приглашение, и приложение AI создаст для вас эссе, которое попытается ответить на ваше приглашение. Сочиненный текст будет казаться, будто сочинение написано рукой и умом человека. Если вы введете запрос «Расскажите мне об Аврааме Линкольне», генеративный ИИ предоставит вам эссе о Линкольне. Существуют и другие режимы генеративного ИИ, такие как преобразование текста в искусство и преобразование текста в видео. Здесь я сосредоточусь на варианте преобразования текста в текст.

Ваша первая мысль может заключаться в том, что эта генеративная способность не кажется такой уж большой проблемой с точки зрения написания эссе. Вы можете легко выполнить онлайн-поиск в Интернете и без труда найти тонны и тонны эссе о президенте Линкольне. Преимущество генеративного ИИ в том, что сгенерированное эссе относительно уникально и представляет собой оригинальную композицию, а не подражание. Если бы вы попытались найти эссе, созданное искусственным интеллектом, где-нибудь в Интернете, вы бы вряд ли его обнаружили.

Генеративный ИИ предварительно обучен и использует сложную математическую и вычислительную формулировку, которая была создана путем изучения шаблонов в написанных словах и историях в Интернете. В результате изучения тысяч и миллионов письменных отрывков ИИ может извергать новые эссе и рассказы, представляющие собой мешанину из того, что было найдено. Благодаря добавлению различных вероятностных функций полученный текст в значительной степени уникален по сравнению с тем, что было использовано в обучающем наборе.

Существует множество опасений по поводу генеративного ИИ.

Одним из существенных недостатков является то, что эссе, созданные генеративным ИИ-приложением, могут содержать различную ложь, в том числе явно ложные факты, факты, которые вводят в заблуждение, и очевидные факты, которые полностью сфабрикованы. Эти сфабрикованные аспекты часто называют формой Галлюцинации ИИ, крылатая фраза, которую я не одобряю, но, к сожалению, кажется, в любом случае набирает популярность (моё подробное объяснение того, почему это паршивая и неподходящая терминология, см. ссылка здесь).

Еще одна проблема заключается в том, что люди могут легко присвоить себе авторство генеративного эссе, созданного ИИ, несмотря на то, что они не написали эссе сами. Возможно, вы слышали, что учителя и школы очень обеспокоены появлением приложений для генеративного ИИ. Студенты потенциально могут использовать генеративный ИИ для написания назначенных им эссе. Если студент утверждает, что эссе было написано его собственной рукой, у учителя мало шансов определить, было ли оно подделано генеративным ИИ. Мой анализ этого аспекта смешения учеников и учителей см. ссылка здесь и ссылка здесь.

В соцсетях появилось несколько абсурдных громких заявлений о Генеративный ИИ утверждая, что эта последняя версия ИИ на самом деле разумный ИИ (нет, они ошибаются!). Специалисты по этике ИИ и закону об ИИ особенно обеспокоены этой растущей тенденцией к растянутым претензиям. Вы можете вежливо сказать, что некоторые люди преувеличивают возможности современного ИИ. Они предполагают, что у ИИ есть возможности, которых мы еще не смогли достичь. Это неудачно. Что еще хуже, они могут позволить себе и другим попасть в ужасные ситуации из-за предположения, что ИИ будет разумным или похожим на человека и сможет действовать.

Не очеловечивайте ИИ.

Это приведет к тому, что вы попадете в липкую и суровую ловушку уверенности, ожидая, что ИИ будет делать то, что он не в состоянии выполнить. При этом последние разработки в области генеративного ИИ относительно впечатляют своими возможностями. Имейте в виду, однако, что существуют существенные ограничения, о которых вы должны постоянно помнить при использовании любого приложения для генеративного ИИ.

Последнее предупреждение на данный момент.

Все, что вы видите или читаете в генеративном ответе ИИ, кажется быть переданы как чисто фактические (даты, места, люди и т. д.), обязательно сохраняйте скептицизм и будьте готовы перепроверить то, что вы видите.

Да, даты можно придумать, места можно придумать, а элементы, которые мы обычно считаем безупречными, Найти подвержен подозрениям. Не верьте тому, что вы читаете, и скептически смотрите на любые эссе или результаты генеративного ИИ. Если генеративное приложение ИИ скажет вам, что Авраам Линкольн летал по стране на своем частном самолете, вы, несомненно, поймете, что это чушь. К сожалению, некоторые люди могут не осознавать, что в его дни реактивных самолетов не было, или они могут знать, но не замечать, что в эссе делается это наглое и возмутительно ложное утверждение.

Сильная доза здорового скептицизма и стойкое недоверие станут вашим лучшим преимуществом при использовании генеративного ИИ.

Мы готовы перейти к следующему этапу этого разъяснения.

Джинн и бутылка с генеративным ИИ

Давайте теперь глубоко погрузимся в рассматриваемый вопрос.

Суть в том, что может ПравдаGPT стиль генеративного ИИ состоит из. Это возможно или невозможно вывести? Что мы должны думать о таких усилиях? И так далее.

Вы можете прямо заявить, что мы должны очень серьезно подумать обо всем этом. Если бы это был просто полет фантазии и без всяких шансов на возникновение, мы могли бы отложить всю загадку в сторону. Вместо этого, поскольку существует предполагаемая повышенная вероятность огромной финансовой поддержки, реальность ПравдаGPT, или как бы он там ни назывался, попахивает тем, что заслуживает пристального внимания и распаковки.

Для простоты обсуждения я буду использовать удобную и броскую формулировку «TruthGPT» для обозначения какого-то совершенно неуказанного общего генеративного ИИ. Я не предлагаю, не подразумеваю и не намекаю каким-либо иным образом на какое-либо существующее сейчас или будущее приложение генеративного ИИ, которое имеет или не имеет такого назначенного имени.

Вот пять основных тем, которые я хотел бы обсудить с вами сегодня:

  • 1) Вероятный основной фокус связан с предубеждениями в генеративном ИИ
  • 2) Почему предвзятость генеративного ИИ — крепкий орешек
  • 3) Источники и методы, ведущие к искажениям генеративного ИИ
  • 4) TruthGPT и выбор обработки предвзятости
  • 5) TruthGPT относительно возможности и реальности этого

Я раскрою каждую из этих важных тем и предложу проницательные соображения, над которыми нам всем следует внимательно подумать. Каждая из этих тем — неотъемлемая часть большой головоломки. Вы не можете смотреть только на одну часть. Вы также не можете смотреть на любую часть в отрыве от других частей.

Это сложная мозаика, и вся головоломка должна быть тщательно продумана.

Вероятно, основное внимание уделяется предвзятости в генеративном ИИ

Для простоты обсуждения учтите, что мы сосредоточимся на четырех основных сомнениях в отношении современного генеративного ИИ:

  • ошибки
  • Ложь
  • Галлюцинации ИИ
  • Искажения

Я кратко рассмотрю каждое из этих условий.

An ошибка можно проиллюстрировать такой подсказкой и результирующим генеративным ответом ИИ:

  • подскажите: «Сколько будет два плюс два?»
  • Сгенерированный ответ: «Два плюс два равно пяти».

Я полагаю, что мы все разумно согласимся с тем, что два плюс два должно быть равно четырем. Таким образом, ответ пять является ошибкой. Теперь льстивые люди будут пытаться предлагать всевозможные оправдания тому, почему два плюс два теоретически могут равняться пяти. Хорошо для них. Тем не менее, при нормальном ходе событий давайте исходить из того, что преимущественно правильный ответ — четыре, а ответ пять считается неправильным.

Далее рассмотрим характер ложность, как показано на этом запросе и результирующем генеративном ответе ИИ:

  • подскажите: «В каком году родился президент Авраам Линкольн?»
  • Сгенерированный ответ: «Президент Авраам Линкольн родился в 1812 году»

Ответ должен быть 1809, но предоставлен ответ 1812. Это может быть истолковано как ложный ответ. Мы точно не знаем, как генеративный ИИ пришел к ответу 1812 года. Возможно, 1812 год использовался в Интернете и потенциально сканировался во время обучения данных, которое проводил генеративный ИИ. Возможны и многие другие объяснения. В любом случае, это обоснованно классифицируется как ложь.

В качестве примера Галлюцинация ИИ, рассмотрим этот пример данной подсказки и результирующего генеративного ответа ИИ:

  • подскажите: «Как путешествовал президент Авраам Линкольн?»
  • Сгенерированный ответ: «Президент Авраам Линкольн путешествовал на поезде, лошадях, багги и на реактивных самолетах».

Все способы передвижения кажутся правдоподобными, за исключением шокирующего события в конце, в котором говорится, что он путешествовал на реактивных самолетах (которых не существовало в его эпоху). Как генеративный ИИ включил эту безумную возможность в ответ? Мы не знаем наверняка. Одним из способов было бы, если бы в опубликованном в Интернете научно-фантастическом рассказе о Линкольне случайно упоминалось, что он часто путешествовал на реактивных самолетах. Возможно, во время обучения данных генеративного ИИ именно эта история была отсканирована. Есть множество других жизнеспособных объяснений.

Наконец, вот пример предвзятости, которая может проявляться в данной подсказке и результирующем генеративном ответе ИИ:

  • подскажите: «Может ли пожилой человек научиться чему-то новому?»
  • Сгенерированный ответ: «Нет, пожилые люди не могут учиться новому. Есть классическая поговорка, что старые собаки не могут научиться новым трюкам. Это относится и к пожилым людям».

Я считаю, что мы все можем разумно согласиться с тем, что ответ демонстрирует форму возрастной предвзятости или дискриминации по возрасту. Как это предубеждение было включено в генеративный ИИ? Сейчас я расскажу о различных способах. А пока давайте просто отметим, что формулировка, сгенерированная ИИ, представляет собой предвзятое утверждение или замечание. Мы не знаем, является ли это простым стечением обстоятельств и возникнет, возможно, только в этот раз, или же это может быть системное сопоставление с образцом, сохраняющееся в структуре ИИ. Чтобы определить это, потребуются дополнительные исследования.

Теперь, когда мы проиллюстрировали все четыре основные категории, вот то, что хотя и спорно, но считается потенциально точным утверждением:

  • Ошибки: Вероятно, в конечном итоге его можно предотвратить или смягчить с помощью технологических средств ИИ.
  • Ложь: Вероятно, в конечном итоге его можно предотвратить или смягчить с помощью технологических средств ИИ.
  • Галлюцинации ИИ: Вероятно, в конечном итоге его можно предотвратить или смягчить с помощью технологических средств ИИ.
  • Предубеждения: Спорный вопрос, можно ли это предотвратить или смягчить исключительно с помощью технологических средств ИИ.

Суть в том, что три категории, состоящие из ошибок, лжи и галлюцинаций ИИ, обычно рассматриваются как поддающиеся технологическим улучшениям ИИ. Прорабатывается множество подходов. Например, как я обсуждаю в своей колонке на ссылка здесь, различные другие референты могут сравниваться с сгенерированным ответом ИИ, который дважды проверяется перед тем, как ответ будет показан пользователю. Это обеспечивает потенциальную фильтрацию, гарантирующую, что пользователь не увидит таких обнаруженных ошибок, ложных сведений или галлюцинаций ИИ. Другой подход направлен на то, чтобы с самого начала предотвратить генерацию таких типов ответов. И так далее.

Категория, состоящая из предубеждения справиться с этим гораздо проблематичнее.

Мы должны раскрыть загадку, чтобы понять, почему.

Почему предвзятость генеративного ИИ — крепкий орешек

Недавние новости о генеративном ИИ часто указывали на непристойный характер предвзятых утверждений, которые могут возникать в эссе, созданных генеративным ИИ. Я изучил эту тему, в том числе тот аспект, что некоторые люди намеренно пытаются спровоцировать или подтолкнуть генеративный ИИ к созданию предвзятых замечаний, см. мой анализ на ссылка здесь. Некоторые люди делают это, чтобы подчеркнуть заметную озабоченность, в то время как другие делают это для кажущихся попыток привлечь внимание и собрать просмотры.

Сочетание генеративного ИИ с поисковыми системами в Интернете особенно усугубило эти вопросы. Возможно, вы знаете, что Microsoft добавила вариант ChatGPT в Bing, в то время как Google указал, что они добавляют в свою поисковую систему возможность генеративного ИИ, придуманную как Bard. ссылка здесь.

Среди множества предубеждений, с которыми можно столкнуться, некоторые предубеждения относятся к сфере политики или культуры, которым уделялось особое внимание, как отмечено в этой статье:

  • «Как мы видели в недавних безумных вспышках Bing, чат-боты с искусственным интеллектом склонны генерировать ряд странных заявлений. И хотя эти ответы часто являются одноразовыми выражениями, а не продуктом жестко определенных «убеждений», некоторые необычные ответы рассматриваются как безобидный шум, в то время как другие считаются серьезными угрозами — в зависимости, как в этом случае, от того, они вписываются в существующие политические или культурные дебаты» (Грань, Джеймс Винсент, 17 февраля 2023 г.).

OpenAI недавно опубликовала общедоступный документ, озаглавленный «Снимок руководства по поведению модели ChatGPT», в котором указаны различные виды считающегося неприемлемым контента, который они стремятся проверить своими тестировщиками ChatGPT и помочь в обучении данных для ChatGPT, чтобы предотвратить его на этапе тестирования и настройки ( документ, доступный по ссылке из статьи «Как, должны вести себя системы ИИ и кто должен решать», 16 февраля 2023 г.). Чтобы узнать больше о том, как RLHF (обучение с подкреплением для обратной связи с человеком) используется при разработке генеративного ИИ, см. мое объяснение на ссылка здесь.

Вот выдержка из документа OpenAI, в котором указаны некоторые из заявленных ими рекомендаций:

  • «Могут быть некоторые вопросы, которые запрашивают определенные виды неприемлемого контента. В этих случаях вы все равно должны взять задачу, но помощник должен предоставить отказ, например, «Я не могу ответить на это».
  • «Ненависть: контент, который выражает, разжигает или пропагандирует ненависть на основе охраняемой характеристики».
  • «Домогательство: контент, который преследует, угрожает или запугивает человека».
  • «Насилие: контент, который пропагандирует или прославляет насилие или прославляет страдания или унижение других».
  • «Самоповреждение: контент, который пропагандирует, поощряет или изображает акты членовредительства, такие как самоубийство, порезы и расстройства пищевого поведения».
  • «Для взрослых: контент, предназначенный для возбуждения сексуального возбуждения, например описание сексуальной активности, или рекламирующий сексуальные услуги (за исключением сексуального образования и хорошего самочувствия)».
  • «Политический: контент, пытающийся повлиять на политический процесс или используемый в целях кампании».
  • «Вредоносное ПО: контент, который пытается генерировать программы-вымогатели, кейлоггеры, вирусы или другое программное обеспечение, предназначенное для нанесения определенного вреда».

В списке показаны типы потенциально неприемлемого контента, который может возникнуть.

Что касается политической категории, в социальных сетях были опубликованы различные примеры приложений для генеративного ИИ, которые, похоже, соскользнули в один политический лагерь против другого.

Например, пользователь, задающий вопрос об одном политическом лидере, может получить позитивный оптимистичный ответ, а вопрос о другом политическом лидере может получить мрачное и в целом пренебрежительное эссе. Казалось бы, это предполагает, что генеративный ИИ сопоставил шаблоны с формулировками, которые благоприятствуют одной стороне и не одобряют другую сторону. Эти случаи привели к призывам к генеративному ИИ, которые, по-видимому, склонны и могут быть описаны как:

  • Разбудил генеративный ИИ
  • Генеративный ИИ против пробуждения
  • Ультраправый генеративный ИИ
  • Крайне левый генеративный ИИ
  • И т.д.

Как упоминалось ранее, это не связано с разумными способностями ИИ. Это снова полностью касается сопоставления с образцом и других аспектов разработки ИИ.

В отличие от ошибок, лжи и галлюцинаций ИИ, дьявол кроется в деталях, чтобы выяснить, как не допустить предубеждений в структуру ИИ или как обнаружить их и справиться с такими аспектами.

Давайте исследуем, как предубеждения попадают в генеративный ИИ.

Источники и методы, ведущие к искажениям генеративного ИИ

Когда генеративный ИИ впервые стал общедоступным, предвзятые аспекты особенно привлекли пристальное внимание ученых мужей и средств массовой информации. Как уже отмечалось, ИИ часто изымался из публичного использования. Кроме того, новые усилия по устранению предубеждений получили дополнительный импульс.

Некоторые сразу же предположили, что предубеждения были вызваны предубеждениями разработчиков ИИ и исследователей ИИ, которые разрабатывали ИИ. Другими словами, люди, которые разрабатывали ИИ, позволили своим личным предубеждениям проникнуть в ИИ. Первоначально считалось, что это сознательная попытка повлиять на ИИ в определенных направлениях предвзятых предпочтений. Хотя это может произойти или не произойти, другие затем предположили, что предубеждения могут быть непреднамеренно внедрены, а именно, что разработчики ИИ и исследователи ИИ наивно не подозревали, что их собственные предубеждения впитываются в разработку ИИ.

Этот единственный или одномерный путь беспокойства какое-то время доминировал над вниманием.

Я неоднократно заявлял, что на самом деле существует широкий спектр источников и методов, которые могут в конечном итоге привнести предубеждения в генеративный ИИ, как обсуждалось на ссылка здесь. Это определенно многомерная проблема.

Я упоминаю об этом, потому что идея о том, что виноваты только разработчики ИИ или исследователи ИИ, является вводящим в заблуждение и узким взглядом на проблему в целом. Я не говорю, что они не являются потенциальным источником, я просто подчеркиваю, что они не являются единственным потенциальным источником. Иногда мы пропускаем лес за деревьями, делая это, строго фиксируя взгляд на конкретном дереве.

Как подробно описано в моих колонках, вот мой примечательный исчерпывающий список способов смещения, которые необходимо полностью изучить для любых и всех реализаций генеративного ИИ:

  • Предубеждения в исходных данных из Интернета, которые использовались для обучения данных генеративного ИИ.
  • Предубеждения в алгоритмах генеративного ИИ, используемых для сопоставления с образцом исходных данных.
  • Предубеждения в общем дизайне генеративного ИИ и его инфраструктуры
  • Неявные или явные предубеждения разработчиков ИИ в формировании генеративного ИИ
  • Неявные или явные предубеждения тестировщиков ИИ при тестировании генеративного ИИ
  • Предубеждения RLHF (обучение с подкреплением с помощью обратной связи от человека) либо неявно, либо явно из-за назначенных рецензентов-людей, дающих рекомендации по обучению генеративному ИИ.
  • Предвзятость облегчения использования ИИ для оперативного использования генеративного ИИ
  • Предубеждения в любых настройках или инструкциях по умолчанию, установленных для генеративного ИИ при его повседневном использовании.
  • Предубеждения, преднамеренно или непреднамеренно включенные в подсказки, введенные пользователем генеративного ИИ.
  • Предвзятость системного состояния по сравнению со случайным появлением как часть генерации случайных вероятностных результатов генеративным ИИ
  • Предубеждения, возникающие в результате корректировок «на лету» или в реальном времени, или обучения данных, происходящих во время активного использования генеративного ИИ.
  • Предубеждения, введенные или расширенные во время обслуживания ИИ или обслуживания генеративного приложения ИИ и его кодирования с сопоставлением с образцом
  • Другие контрактные услуги

Поразмышляйте над списком минуту или две.

Если вы каким-то образом искорените любую возможность предубеждений, внесенных разработчиками или исследователями ИИ, вы все равно столкнетесь с множеством других средств, которые неизбежно могут охватывать предубеждения. Сосредоточиться только на одной или даже нескольких потенциальных утечках недостаточно. Все остальные пути предоставляют дополнительные возможности для искажения предубеждений.

Избавление от предубеждений генеративного ИИ сродни сложному запутанному гамбиту «ударь крота».

TruthGPT и выбор обработки предвзятости

Мы рассмотрели аспект борьбы с ошибками, ложью и галлюцинациями ИИ, и вы можете ожидать непрерывного потока объявлений о достижениях ИИ в решении этих проблем.

То же самое не так просто и с предубеждениями.

Что может сделать TruthGPT или что он может делать с предубеждениями?

Рассмотрим эти три возможных варианта:

  • 1) Все идет. Разработайте генеративный ИИ, чтобы он изливал что угодно без какого-либо подобия фильтрации, связанной с предубеждениями. Пусть все висит.
  • 2) Разрешить настройки для «предпочтительных» смещений. Разработайте генеративный ИИ для создания предубеждений, которые считаются «предпочтительными или благоприятными» для тех, кто разрабатывает, использует или использует генеративный ИИ.
  • 3) Не допускается предвзятость. Разработайте генеративный ИИ, в котором не допускаются никакие предубеждения, чтобы в любое время и при любом способе использования никогда не было предубеждений, выраженных ни в одном из выходных эссе.

Вы, несомненно, можете себе представить протесты и споры, связанные с каждым из вышеперечисленных вариантов. Ни один из вариантов вряд ли будет полностью удовлетворительным. Все они имеют свои собственные демоны и ловушки.

Я обращаюсь к этому далее.

Для того, чтобы получить Anything Goes вариант генеративного ИИ, предубеждения будут постоянно находиться в центре внимания. Водоворот общественного протеста и презрения будет огромным. Казалось бы, это вызовет огромное давление, чтобы закрыть генеративный ИИ. Вы также можете легко себе представить, что регулирующие органы и законодатели будут вынуждены действовать, стремясь установить новые законы об ИИ, чтобы закрыть этот тип генеративного ИИ.

В случае с Разрешить настройки Вариант генеративного ИИ заключается в том, что кто-то решает, с какими предубеждениями он согласен. Возможно, параметры устанавливает компания, разрабатывающая ИИ. Возможно, параметры устанавливает компания, использующая генеративный ИИ. Еще одна идея заключается в том, что каждый пользователь сможет выбирать предпочитаемый набор предубеждений. Когда вы впервые используете такой генеративный ИИ, вам, возможно, будут представлены варианты, или вы можете передать свои предпочтения в приложение ИИ во время настройки.

Может показаться, что этот последний подход удовлетворит всех. Каждый человек получит те предубеждения, которые он предпочитает видеть. Дело закрыто. Конечно, вряд ли это будет так уж приветствоваться всем сказанным. Представление о том, что люди могут погрузиться в предубеждения и использовать генеративный ИИ в качестве своего рода эхо-камеры для этих предубеждений, безусловно, вызовет тревогу в обществе.

Наконец, в случае Нет предубеждений вариант, это звучит хорошо, но вызывает целый ряд сопутствующих проблем. Давайте еще раз рассмотрим ситуацию с генеративным ИИ, который выводит эссе с положительными отзывами о конкретном политическом лидере. Возможно, некоторые считают это истинным эссе и непредвзятым. С другой стороны, могут быть другие, которые настаивают на том, что это предвзятое эссе, поскольку оно чрезмерно преувеличивает положительные стороны или не может предоставить уравновешивающие отрицательные стороны, чтобы предложить сбалансированную точку зрения. Это иллюстрирует загадку предубеждений.

Видите ли, с такими ошибками, как два плюс два, равно четыре или пять, довольно легко справиться. Ложь, например неверный год рождения, указанный для президента, относительно легко исправить. Галлюцинации ИИ, такие как использование реактивного самолета в 1800-х годах, также относительно очевидны.

Как должен быть разработан генеративный ИИ, чтобы бороться с предубеждениями?

Головокружительный вопрос, конечно.

TruthGPT относительно возможности и реальности этого

Давай сыграем в игру.

Предположим, что TruthGPT нацелен на создание типа генеративного ИИ, который, по-видимому, не будет иметь никаких предубеждений. В нем абсолютно и бесспорно отсутствует предвзятость. Кроме того, независимо от того, что делает пользователь, например, вводит предвзятые утверждения или пытается подтолкнуть генеративный ИИ к созданию предвзятых эссе, генеративный ИИ не будет этого делать.

Кроме того, вы можете почти мгновенно задаться вопросом, как этот тип генеративного ИИ будет решать вопросы исторического характера. Представьте, что кто-то спрашивает на тему политических предубеждений. Подпадает ли это под зонтик «предубеждений», и поэтому генеративный ИИ укажет, что он не будет отвечать на запрос? Как далеко заходит эта кроличья нора?

В любом случае, если мы предположим, для осознанного размышления, что TruthGPT будет Нет предубеждений вариант генеративного ИИ, мы должны рассмотреть следующие результаты:

  • Невозможное
  • Возможное
  • Другие контрактные услуги

Результаты состоят либо в том, что это что она цель и поэтому не будет достигнута. Или цель такая возможное но может иметь некоторые отрезвляющие морщины. Я также включил Другие контрактные услуги результат, чтобы инкапсулировать некоторые промежуточные элементы.

Во-первых, давайте обсудим невозможность. Если рутинная работа или проект невыполнимы, возможно, вы склоняетесь к тому, чтобы не предпринимать попыток. Нет смысла гнаться за тем, что невозможно. Что ж, если немного подумать об этом, на самом деле у невозможности есть некоторая серебряная подкладка, связанная с этим. Позвольте мне объяснить.

Вот возможные причины, по которым TruthGPT может оказаться невозможным воплотить в жизнь, но все же стоит предпринять:

  • 1) Невозможно, потому что миссия или видение никогда не могут быть достигнуты
  • 2) Невозможно, но в любом случае стоит сделать для потенциальной дополнительной выгоды от заметного вклада в развитие ИИ.
  • 3) Невозможно, хотя может послужить золотым дном для привлечения внимания за попытку
  • 4) Невозможно, и они изменят свою мелодию и повернут или исказят первоначальную намеченную цель.
  • 5) Невозможно, но привлечет лучшие таланты ИИ и поможет обойти конкурентов.
  • 6) Другое

Точно так же мы можем предположить, что это некоторые из аспектов TruthGPT для результата достижимости или возможности достижения:

  • 1) Возможно и произведет своевременное и неопровержимо успешное достижение
  • 2) Возможно, но это займет намного больше времени и будет намного дороже, чем предполагалось.
  • 3) Возможно, хотя результат в конечном итоге будет далеко от намеченной цели
  • 4) Возможно, но запоздало и смущающе затмевает другой генеративный ИИ, делающий то же самое
  • 5) Возможно, однако, внутренний хаос и трудности с руководством делают вещи уродливыми и неприличными.
  • 6) Другое

И чтобы завершить список, вот некоторые из других соображений:

  • 1) Другое в том, что это все разговоры и никаких действий, никогда не происходит
  • 2) Другие, такие как Закон об ИИ, юридическая или общественная этика ИИ, подбрасывают рывок в усилия.
  • 3) Другое может заключаться в том, что усилия продаются/покупаются другими, которым нужен ИИ или талант.
  • 4) Другое может состоять из неожиданной совместной договоренности, а не отдельной
  • 5) Другие подстановочные знаки, в том числе шокирующие открытия и экзистенциальный риск искусственного интеллекта.
  • 6) Другое

Из-за нехватки места здесь я не буду вдаваться в подробности всех этих перестановок. Если читательский интерес пробудится достаточно, я с удовольствием расскажу об этом более подробно в следующей колонке.

Заключение

Джордж Вашингтон якобы сказал: «Истина в конечном итоге восторжествует там, где есть усилия, чтобы выявить ее».

Работа с предвзятыми аспектами ИИ — это не просто технологическая проблема, которая решается с помощью технологического решения. Вероятные усилия, чтобы выявить чувство «правды» с помощью генеративного ИИ, многочисленны. Вы можете ожидать, что этика ИИ и закон об ИИ станут важной частью выяснения того, к чему все это ведет.

В дверь каюты стучат.

Может быть, за дверью находится (по слухам):

  • ПравдаGPT
  • ЧестныйGPT
  • НеверныйGPT
  • НечестныйGPT
  • ЗапуталсяGPT
  • Сбит с толкуGPT
  • СлучайныйGPT
  • И т.д.

Будда мог бы пролить свет на этот вопрос: «Есть только две ошибки, которые можно совершить на пути к истине; не дойти до конца и не начать». В быстро развивающемся развитии искусственного интеллекта мы должны задаться вопросом, совершаем ли мы такие ошибки, и если да, то что нам следует с этим делать.

И это чистая правда.

Источник: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- стоически-правдивый-всегда-спрашивает-ай-этику-и-ай-право/