Приносит ли какую-либо пользу разоблачение и регистрация ошибочных и галлюцинаторных выходов генеративного ИИ ChatGPT, задается вопросом этики ИИ и закона об ИИ

Вас ждет секрет.

Да, что-то тайно происходит за кулисами последних достижений в области искусственного интеллекта, о чем вы, возможно, захотите узнать.

В сегодняшней колонке я рассмотрю недавний импульс к сбору предполагаемых ошибок и других недугов, связанных с выводом эссе из приложения ИИ, известного как ChatGPT. Это конкретное приложение использует тип ИИ, называемый Генеративный ИИ. Вы, наверное, слышали или видели привлекающие внимание заголовки о генеративном искусственном интеллекте и ChatGPT. Новости об этом конкретном приложении ИИ и, казалось бы, удивительных возможностях, относящихся к этому типу ИИ, взбудоражены.

Как я расскажу чуть позже, некоторые твердо убеждены в том, что нам необходимо составить список ошибок или ошибок, которые может выдать приложение ИИ, когда оно создает для вас эссе. Другие предполагают, что, хотя идея такого списка достойна восхищения, это бесполезное упражнение и принесет очень мало плодов.

Мы рассмотрим обе стороны этого злобного спора.

Во-первых, давайте убедимся, что мы все согласны с тем, из чего состоит Генеративный ИИ, а также что такое ChatGPT.

ChatGPT — это универсальная интерактивная система ИИ, ориентированная на общение, по сути, кажущийся безобидным общий чат-бот, тем не менее, он активно и жадно используется людьми способами, которые застают многих врасплох. Все, что вам нужно сделать, чтобы использовать этот тип ИИ, — это ввести подсказку, и приложение ИИ сгенерирует для вас эссе, которое попытается ответить на вашу подсказку.

К сожалению, это может быть использовано несколько неэтичным или окольным образом. Особенно раздражает то, что учащиеся могут использовать приложение на основе генеративного искусственного интеллекта для создания назначенных им эссе, просто введя одно или два предложения, чтобы направить приложение в правильном направлении. Некоторые сетуют на то, что это означает, что ученики предпочтут жульничать при написании эссе вне класса. Учителя пытаются понять, что делать, см. мой анализ и рекомендации на ссылка здесь.

Несмотря на постоянный шум восхвалений ChatGPT, существует менее известная обеспокоенность, выраженная в первую очередь инсайдерами ИИ, что есть некоторые заметные проблемы и опасения, о которых людям следует беспокоиться. Одним из существенных недостатков является то, что эссе, созданные этим приложением ИИ, могут содержать различную ложь, в том числе заведомо ложные факты, факты, которые вводят в заблуждение, и очевидные факты, которые полностью сфабрикованы. Эти сфабрикованные аспекты часто называют формой Галлюцинации ИИ, крылатая фраза, которую я не люблю, но, к сожалению, кажется, в любом случае набирает популярность (моё подробное объяснение того, почему это паршивая и неподходящая терминология, см. в моем репортаже на ссылка здесь).

Я хотел бы прояснить один важный аспект, прежде чем мы углубимся в суть этой темы.

В соцсетях появилось несколько абсурдных громких заявлений о Генеративный ИИ утверждая, что эта последняя версия ИИ на самом деле разумный ИИ (нет, они ошибаются!). Специалисты по этике ИИ и закону об ИИ особенно обеспокоены этой растущей тенденцией к растянутым претензиям. Вы можете вежливо сказать, что некоторые люди преувеличивают возможности современного ИИ. Они предполагают, что у ИИ есть возможности, которых мы еще не смогли достичь. Это прискорбно. Что еще хуже, они могут позволить себе и другим попасть в ужасные ситуации из-за предположения, что ИИ будет разумным или похожим на человека и сможет действовать.

Не очеловечивайте ИИ.

Это приведет к тому, что вы попадете в липкую и суровую ловушку уверенности, ожидая, что ИИ будет делать то, что он не в состоянии выполнить. При этом последние разработки в области генеративного ИИ относительно впечатляют своими возможностями. Имейте в виду, однако, что существуют существенные ограничения, о которых вы должны постоянно помнить при использовании любого приложения для генеративного ИИ.

Если вам интересен быстро растущий ажиотаж вокруг ChatGPT и генеративного ИИ, я сделал серию статей в своей колонке, которые могут оказаться для вас информативными. Вот краткий обзор на случай, если какая-либо из этих тем заинтересует вас:

  • 1) Прогнозы развития генеративного ИИ. Если вы хотите знать, что может произойти с ИИ в 2023 году и далее, включая предстоящие достижения в области генеративного ИИ и ChatGPT, вам следует прочитать мой исчерпывающий список прогнозов на 2023 год по адресу ссылка здесь.
  • 2) Генеративный ИИ и советы по психическому здоровью. Я решил просмотреть, как генеративный ИИ и ChatGPT используются для консультирования по вопросам психического здоровья, что является неприятной тенденцией, согласно моему целенаправленному анализу на ссылка здесь.
  • 3) Использование контекста и генеративного ИИ. Я также провел ироничное исследование с сезонным привкусом о контексте, связанном с Санта-Клаусом, с участием ChatGPT и генеративного ИИ в ссылка здесь.
  • 4) Мошенники, использующие генеративный ИИ. Зловещая нота: некоторые мошенники выяснили, как использовать генеративный ИИ и ChatGPT для совершения правонарушений, в том числе для создания мошеннических электронных писем и даже для создания программного кода для вредоносных программ, см. мой анализ на ссылка здесь.
  • 5) Ошибки новичков при использовании генеративного ИИ. Многие люди как переоценивают, так и неожиданно недооценивают то, что могут сделать генеративный ИИ и ChatGPT, поэтому я особенно рассмотрел недооценку, которую склонны делать новички ИИ, см. обсуждение на ссылка здесь.
  • 6) Как справиться с генеративными подсказками ИИ и галлюцинациями ИИ. Я описываю передовой подход к использованию надстроек ИИ для решения различных проблем, связанных с попыткой ввести подходящие подсказки в генеративный ИИ, а также существуют дополнительные надстройки ИИ для обнаружения так называемых галлюцинаций и ложных выводов ИИ. покрыты в ссылка здесь.
  • 7) Развенчание заявлений Болвана об обнаружении генеративных эссе, созданных искусственным интеллектом. Существует ошибочная золотая лихорадка приложений ИИ, которые заявляют, что могут установить, было ли то или иное эссе создано человеком или создано ИИ. В целом, это вводит в заблуждение, а в некоторых случаях является глупым и несостоятельным утверждением, см. мой репортаж на ссылка здесь.
  • 8) Ролевые игры с помощью генеративного ИИ могут предвещать проблемы с психическим здоровьем. Некоторые используют генеративный ИИ, такой как ChatGPT, для ролевых игр, в которых приложение ИИ реагирует на человека так, как будто он существует в мире фантазий или в другом выдуманном окружении. Это может иметь последствия для психического здоровья, см. ссылка здесь.

Давайте прямо сейчас обсудим суть генеративного ИИ и ChatGPT, чтобы вы знали об их основах. Затем мы будем готовы перейти к тщательному анализу лжи, которую потенциально могут генерировать эти приложения ИИ. Я приведу несколько примеров использования ChatGPT, которые помогут вам осязаемо понять природу того, что производит этот тип генеративного ИИ.

Открытие банки с червями на генеративном ИИ

Мы готовы углубиться в некоторые подробности об ИИ.

Если вы уже очень хорошо разбираетесь в теме генеративного ИИ и ChatGPT, вы можете кратко просмотреть мои пункты и перейти к следующему разделу этого обсуждения. Для всех остальных, я полагаю, вы можете найти это разъяснение полезным.

Короче говоря, генеративный ИИ — это особый тип ИИ, который составляет текст так, как если бы текст был написан рукой и разумом человека. Все, что вам нужно сделать, это ввести подсказку, например, предложение вроде «Расскажите мне об Аврааме Линкольне», и генеративный ИИ предоставит вам эссе о Линкольне. Это обычно классифицируется как генеративный ИИ, который выполняет текст в текст или некоторые предпочитают называть это текст в эссе вывод. Возможно, вы слышали о других режимах генеративного ИИ, таких как преобразование текста в рисунок и текста в видео.

Ваша первая мысль может заключаться в том, что это не кажется таким уж большим делом с точки зрения написания эссе. Вы можете легко выполнить онлайн-поиск в Интернете и без труда найти тонны и тонны эссе о президенте Линкольне. Преимущество генеративного ИИ в том, что сгенерированное эссе относительно уникально и представляет собой оригинальную композицию, а не подражание. Если бы вы попытались найти эссе, созданное искусственным интеллектом, где-нибудь в Интернете, вы бы вряд ли его обнаружили.

Генеративный ИИ предварительно обучен и использует сложную математическую и вычислительную формулировку, которая была создана путем изучения шаблонов в написанных словах и историях в Интернете. В результате изучения тысяч и миллионов письменных отрывков ИИ может извергать новые эссе и рассказы, представляющие собой мешанину из того, что было найдено. Благодаря добавлению различных вероятностных функций полученный текст в значительной степени уникален по сравнению с тем, что было использовано в обучающем наборе.

Вот почему поднялся шум по поводу того, что студенты могут жульничать при написании эссе за пределами класса. Преподаватель не может просто взять сочинение, которое лживые студенты утверждают, что оно написано им самим, и попытаться выяснить, не было ли оно скопировано из какого-то другого онлайн-источника. В целом, в Интернете не будет какого-либо определенного ранее существовавшего эссе, которое соответствовало бы эссе, созданному ИИ. В общем, учителю придется неохотно признать, что студент написал сочинение как оригинальное произведение.

Через мгновение я покажу вам, что происходит, когда вы вводите вопросы или подсказки в генеративный ИИ. Я буду использовать последнюю версию ChatGPT, чтобы вводить свои подсказки и собирать «ответы» или эссе, сгенерированные ИИ (обратите внимание, что то же самое можно сделать с многочисленными другими доступными генеративными приложениями ИИ; я решил использовать ChatGPT, потому что сейчас он получает свои пять минут славы).

Возможно, на данном этапе будет полезно краткое описание ChatGPT.

Всего несколько месяцев назад приложение ChatGPT стало общедоступным. По большому счету, эти генеративные приложения ИИ обычно доступны только инсайдерам ИИ. Необычный аспект, что ChatGPT может использовать любой, просто введя адрес электронной почты и имя, что привело к тому, что многие люди решили попробовать. ChatGPT в настоящее время можно использовать бесплатно (вопрос монетизации — надвигающаяся дилемма для производителей ИИ).

Почти сразу же в социальных сетях развернулась бурная реакция, когда люди бросились приводить примеры того, на что способен генеративный ИИ. Компания OpenAI, которая занимается созданием ChatGPT, решила сократить регистрацию до миллиона пользователей. Этим миллионам пользователей удалось бомбардировать эфир всевозможными историями и рассказами об использовании ChatGPT.

Будьте очень осторожны, веря тому, что люди говорят о приложении ИИ. Многие из этих людей понятия не имеют о том, что они используют. Как будто они никогда не водили машину и даже не подозревали о существовании машин, и вдруг у них появилась возможность водить машину. Наступает полное изумление.

Я не говорю, что генеративный ИИ не впечатляет. Это. Я просто подчеркиваю, что многие восторженные отзывы делаются многими, кто в блаженном неведении о том, на что способен сегодняшний ИИ. Те из нас, кто находится внутри ИИ, используют генеративный ИИ в течение последних нескольких лет. Возможно, мы к этому привыкли. Внезапно вид огромной толпы людей, рекламирующих его на крышах, взволнованно заряжает энергией, но также и несколько сбивает с толку. Сбивает с толку то, что люди заявляют, что генеративный ИИ разумен. Это не. Не позволяйте никому убеждать вас в обратном.

При этом в области ИИ продолжаются жаркие споры о том, находится ли генеративный ИИ на пути к разуму или, возможно, нет. Одна точка зрения состоит в том, что если мы продолжим расширять генеративный ИИ с помощью более быстрых компьютеров и большего объема данных, таких как прочесывание каждого дюйма Интернета, мы почти спонтанно придем к разумному ИИ. Другие утверждают, что это крайне маловероятно. Они предполагают, что генеративный ИИ может быть одним из многих необходимых компонентов. Есть даже более мрачное мнение, что генеративный ИИ — это второстепенное представление, отвлекающее нас от реальных прорывов, которые нам понадобятся для создания разумного ИИ.

Вы также можете найти примечательные вещи, на которые обычно ссылаются инсайдеры ИИ. Искусственный общий интеллект (AGI) в качестве желанной цели для области ИИ. Раньше целью было достижение Artificial Intelligence, но прозвище ИИ стало размытым и запутанным. Когда кто-то говорит, что занимается работой с ИИ, вы не знаете, намекают ли они на сегодняшний ИИ, который не соответствует человеческому, или же они имеют в виду футуристический искусственный интеллект, эквивалентный человеческому. Чтобы обойти эту раздражающую путаницу, в наши дни используется более новая формулировка AGI.

В общем, генеративный ИИ сегодня не разумный, и при этом это не AGI.

Пожалуйста, помните, что, как обсуждалось ранее, ИИ не является разумным. Сгенерированные ИИ ответы представляют собой математическую и вычислительную комбинацию слов в, казалось бы, плавные отрывки. Это основано на том, что алгоритм ИИ был обучен на наборах данных слов и историй, написанных людьми (в основном опубликованных в Интернете). Я повторяю это предупреждение, потому что вы, несомненно, попадете в ментальную ловушку, что эти ответы настолько плавны, что ИИ должен быть разумным. Это случается с большинством людей. Как уже говорилось ранее, отложите в сторону антропоморфизацию. Всегда помните, что ответы основаны на огромном количестве текстов, написанных людьми в Интернете, и, таким образом, будут очень похожи на тексты, написанные людьми.

Есть еще кое-что, что вам нужно знать.

Генеративный ИИ, который беспрепятственно обучается в Интернете, будет иметь тенденцию внедряться в любые текстовые ответы, которые он математически и вычислительно придумывает оскорбительно туманными вещами, включая отвратительно неприятные формулировки. В сети выложено много безумного и грязного материала.

Вы видели это, вы знаете, что я имею в виду.

Компании, разрабатывающие эти ИИ-приложения, обеспокоены тем, что вместе с водой выплеснется и пресловутый младенец (старая поговорка, которую, возможно, следует убрать), а это значит, что если их ИИ будет создавать оскорбительные эссе или истории, люди поднимут оружие. об ИИ. Я уже рассказывал о многих предыдущих случаях, когда такие приложения ИИ для обработки естественного языка (NLP) были обнародованы, и достаточно скоро из них вылезли всевозможные ужасные вещи (я рассказал об этих случаях в своей колонке). Большинство производителей искусственного интеллекта усвоили горький урок, позволив своим продуктам искусственного интеллекта быть свободными в своих продуктах.

В случае с ChatGPT разработчики ИИ стремились внедрить некоторые алгоритмические и связанные с данными проверки и противовесы, чтобы обуздать неприятные результаты ИИ. Частично это произошло во время тренировок. Кроме того, есть и другие средства, позволяющие в режиме реального времени избежать особо вопиющих выходных данных.

Вам может показаться интересным, что некоторые люди, которые использовали ChatGPT, уже придумали скрытые способы обойти эти ограждения, используя различные уловки. В этих вопросах происходит постоянная игра в кошки-мышки. Те, кто прибегает к этим трюкам, иногда делают это ради удовольствия, а иногда (по крайней мере, заявляют), что делают это, чтобы увидеть, насколько далеко может быть расширен ИИ, и предоставить полезные средства предупреждения хрупкости и слабости этих зачатков. приложения ИИ.

Я решил не пытаться обойти обычные средства контроля в этом целенаправленном исследовании. Вывод текста чистый. Конечно, если бы кто-то захотел это сделать, вы, несомненно, могли бы создать несколько странных и сомнительных эссе.

Эссе, созданные большинством этих генеративных приложений ИИ, предназначены для передачи результатов, как если бы они были чисто фактическими и точными. Когда вы читаете подготовленные эссе, они кажутся полностью уверенными. Обычно нет никаких указаний на то, что контент может быть каменистым. Это выбор создателей ИИ, а именно то, что они могли бы пересмотреть приложения ИИ, чтобы сделать их более прозрачными, если бы они хотели, чтобы приложение ИИ делало то же самое.

Иногда приложение для генеративного ИИ выявляет ложные сведения среди обучающих данных недостоверной информации в Интернете. В генеративном ИИ нет «здравого смысла», чтобы определить, что правда, а что ложь. Кроме того, очень немногие приложения ИИ имеют перекрестную проверку и не демонстрируют никаких вероятностей, связанных с тем, что они передают.

Суть в том, что вы получаете ответ, который выглядит и ощущается так, как будто он излучает большую уверенность и должен быть полностью правильным. Не так. Существует даже вероятность того, что искусственный интеллект придумывает что-то, что на языке ИИ называется Галлюцинации ИИ (придуманный термин, который мне решительно не нравится), см. мое обсуждение на ссылка здесь.

Создатели ChatGPT предприняли согласованные усилия, чтобы попытаться уменьшить количество нежелательных материалов. Например, они использовали вариант того, что известно как РЛХФ (Обучение с подкреплением на основе отзывов людей), в результате чего, прежде чем они представили ИИ общественности, они наняли людей для проверки различных выходных данных и указания ИИ, есть ли что-то не так с этими выходными данными, например, демонстрация предубеждений, сквернословие и нравиться. Предоставляя эту обратную связь, приложение ИИ смогло скорректировать вычислительные и математические параметры для уменьшения распространения такого контента. Обратите внимание, что это не гарантированный железный метод, и все же есть способы, которыми приложение AI может создавать такой контент.

Вас может заинтересовать тот факт, что ChatGPT основан на версии предшествующего приложения AI, известного как GPT-3. ChatGPT считается следующим шагом, именуемым GPT-3.5. Ожидается, что GPT-4, вероятно, будет выпущен весной 2023 года. Предположительно, GPT-4 станет впечатляющим шагом вперед с точки зрения возможности создавать, казалось бы, еще более беглые эссе, углубляясь и вызывая благоговейный трепет. - вдохновляющее чудо композиций, которые он может производить.

Вы можете ожидать увидеть новый виток выраженного удивления, когда наступит весна и будет выпущена последняя версия генеративного ИИ.

Я говорю об этом, потому что есть еще один аспект, который следует иметь в виду, заключающийся в потенциальной ахиллесовой пяте этих лучших и более крупных генеративных приложений ИИ. Если какой-либо поставщик ИИ сделает доступным приложение для генеративного ИИ, которое пенно извергает грязь, это может разрушить надежды этих создателей ИИ. Социальное распространение может привести к тому, что весь генеративный ИИ получит серьезный синяк под глазом. Люди, несомненно, будут очень расстроены неправильными выводами, которые уже случались много раз и приводили к бурному общественному осуждению ИИ.

Последнее предупреждение на данный момент.

Все, что вы видите или читаете в генеративном ответе ИИ, кажется быть переданы как чисто фактические (даты, места, люди и т. д.), обязательно сохраняйте скептицизм и будьте готовы перепроверить то, что вы видите.

Да, даты можно придумать, места можно придумать, а элементы, которые мы обычно считаем безупречными, Найти подвержен подозрениям. Не верьте тому, что вы читаете, и скептически смотрите на любые эссе или результаты генеративного ИИ. Если генеративное ИИ-приложение скажет вам, что Авраам Линкольн летал по стране на собственном частном самолете, вы, несомненно, поймете, что это чушь. К сожалению, некоторые люди могут не заметить, что в его дни реактивных самолетов не было, или они могут знать, но не заметить, что в эссе делается это смелое и возмутительно ложное утверждение.

Сильная доза здорового скептицизма и стойкое недоверие станут вашим лучшим преимуществом при использовании генеративного ИИ.

Мы готовы перейти к следующему этапу этого разъяснения.

Эти усилия по регистрации этих ошибок, выведенных ChatGPT

«Ну, у тебя неприятности, друг мой, прямо здесь, говорю я, неприятности прямо здесь, в Ривер-Сити», — так провозглашается знаменитая фраза из классического бродвейского мюзикла. Music Man.

То же самое можно сказать и о сегодняшнем генеративном ИИ.

Люди начали понимать, что генеративное приложение ИИ может создавать ложь, и искренне удивлялись этим тревожным выводам. Возможно, некоторые предполагали, что ИИ не способен ошибаться. Другие могли ожидать, что разработчики ИИ позаботятся о том, чтобы такие результаты не создавались.

В любом случае инсайдеры ИИ сразу же признали, что этот тип ошибочного вывода является неотъемлемой частью большинства современных генеративных ИИ. Очень сложно предотвратить подобные текстовые ошибки. Имейте в виду, что ИИ не имеет никакого подобия здравого смысла и не использует логику как таковую при выводе сгенерированных эссе. Весь набор и сборка сводятся к выполнению вычислительного статистического и вероятностного сопоставления слов с другими словами.

Сначала инсайдеры ИИ решили публиковать обнаруженные причудливые результаты ChatGPT на сайтах социальных сетей. Посмотрите на этот, кто-нибудь объявит. Это плохо, отвечал кто-то другой, а затем приводил другой пример, который казался еще хуже. Это продолжалось и продолжалось.

Эти примеры лжи и ошибок в опубликованных эссе просачивались наружу. По одному. Кроме того, поскольку это обычно размещалось в социальных сетях, не было особенно простого способа увидеть их все сразу. Часто тот же или похожий пример публиковался кем-то, кто не знал, что другие уже нашли конкретный экземпляр.

В эту бурлящую трясину ступили те, кто высказал полезное предложение. Возможно, нам следует создать репозиторий или базу данных, возможно, даже обычную обычную электронную таблицу, содержащую странные ChatGPT и ошибочные результаты, которые обнаруживаются. Каждый раз, когда кто-то находит красотку хохота, зарегистрируйте ее в списке. Некоторые превратили это почти в игру, в которой они намеренно пытаются заставить ChatGPT кашлять странными выводами. Другие просто случайно натыкаются на ошибочные результаты при использовании ChatGPT для других определенных целей.

Звучит достаточно просто.

Похоже на удобный денди способ помочь всем нам.

Давайте кратко объясним, почему наличие этих типов списков о наблюдаемых ошибках или ложных выводах ChatGPT имеет большой смысл для компиляции:

  • 1) Выявляет жизненно важные проблемы и опасения по поводу ChatGPT, о которых должна знать широкая общественность.
  • 2) Помогает уравновесить чрезмерную шумиху и завышенные ожидания в отношении ChatGPT.
  • 3) Может подтолкнуть разработчиков ИИ к улучшению не только ChatGPT, но и других генеративных приложений ИИ.
  • 4) Служить исторической записью, которую можно использовать позже, чтобы задним числом проанализировать появление генеративного ИИ на примере ChatGPT.
  • 5) Быть удобным коллективным ресурсом для всех, кому нужно узнать, что мы, кажется, обнаружили в отношении ошибочных выходов ChatGPT.
  • 6) Полезно для исследователей всех дисциплин, изучающих влияние ChatGPT.
  • 7) Может использоваться в качестве эталона того, что не следует делать и как определить, когда генеративный ИИ не делает что-то так, как должен.
  • 8) Подключается к коллективному разуму, чтобы собрать мудрость толпы об ошибках, которые производит ChatGPT, для которых отдельные усилия вряд ли будут исчерпывающим образом скомпилированы.
  • 9) Может предоставить важную информацию для этики ИИ и закона об ИИ.
  • И т.д.

Это кажется впечатляющей основой для создания этих репозиториев.

Почему кто-то может не согласиться с этим вполне похвальным и, казалось бы, героическим поступком?

Давайте посмотрим, что другие должны были сказать об этом, сделав это со списком причин, почему это может быть не кошачье мяуканье:

  • 1) Эти случайно обнаруженные выведенные ошибки несущественны в общей схеме вещей, и им придается чрезмерное значение, превышающее их ценность.
  • 2) Есть вероятность, что производитель ИИ уже ведет собственное ведение журнала и обновляет ChatGPT, так что эти странные экземпляры вскоре просто останутся в пыли и больше не будут возникать.
  • 3) Точно так же следующая версия, вероятно, в любом случае будет лучше и может больше не отображать эти скоро устаревшие экземпляры.
  • 4) Вы не можете сделать каких-либо всеобъемлющих выводов или получить представление о бессистемном наборе случайных фолов.
  • 5) Некоторые могут использовать различные коллекции, чтобы резко заявить, что генеративный ИИ — это плохо, и что мы должны немедленно прекратить всякую погоню за этим типом ИИ.
  • 6) Скорость, с которой развиваются генеративный ИИ и ChatGPT, настолько высока, что эти экземпляры быстро отойдут на второй план и перестанут быть актуальными.
  • 7) При наличии множества таких коллективных списков и отсутствии единого помазанного глобального источника материал разрознен и, вероятно, будет содержать повторения и быть несостоятельно фрагментированным.
  • 8) Дает ложное ощущение, что вы делаете что-то полезное, в то время как, возможно, время и внимание можно было бы направить на другое более полезное применение.
  • 9) Ничего существенного в отношении этики и закона об ИИ не содержится.
  • И т.д.

Вы, наверное, заметили, что я старался сохранять равновесие, отмечая девять доводов в пользу коллективных списков и девять доводов против. Есть дополнительные причины, которые можно указать, но я полагаю, что приведенное выше указание дает суть вещей.

Те, кто составляет эти коллективные списки, скорее всего, скажут, что если они действительно хотят этого, то это свободный мир, и они могут делать все, что захотят. В этом нет ничего плохого. Те, кто не одобряет усилия, как правило, мелочны и должны просто игнорировать коллекции. Не ваше дело.

По сути, ни вреда, ни фола.

Лагерь, который, кажется, не одобряет коллективные списки, в целом признает, что другие могут составить эти списки, если захотят, но это не двигает иглу. Списки не будут особенно полезными. Что еще хуже, списки могут быть искажены или использованы не по назначению. Наверное, лучше закругляться и перестать составлять списки.

По сути, это хорошая попытка, хотя и бесполезная.

Где вы живете в этом сердечном споре?

Я позволю тебе обдумать это.

Примеры найденных ошибок и других нежелательных результатов ChatGPT

Я подумал, что вы могли бы заинтересоваться некоторыми из выявленных ошибок или ложных выводов, которые появлялись в этих списках сборников.

Я не хочу, чтобы вы думали, что несколько экземпляров, показанных здесь, представляют собой все коллекции. Это не. Я просто выбираю горстку, которая часто всплывает. Я полагаю, что вы, по крайней мере, сможете в целом уловить тон и характер того, что перечисляется.

Вот что я выбираю для покрытия:

  • Определение позиции буквы в слове
  • Вопрос о самом быстром животном
  • Выяснение положения последовательности слов
  • Установка теннисных мячей в трубку
  • Определение Пи
  • Ответ на классическую тревожную загадку
  • Подъемные перья

Я предвижу, что некоторые контролеры коллекций будут расстроены тем, что я не привожу для вас больше примеров. Из-за нехватки места, я могу охватить не так много. Если вы хотите взглянуть на списки коллекций, которые открыто размещены в Интернете, простой онлайн-поиск может найти многие из них. Некоторые из списков хранятся в секрете или заблокированы, так что вы можете видеть список, но не можете вносить в него изменения.

С этим фоном мы готовы перейти к некоторым примерам. Я покажу вам подсказку, которую я ввел. Далее я показываю текстовый ответ, созданный ChatGPT. В некоторых случаях я сделал несколько последовательных обзоров по определенной теме, поэтому я покажу серию подсказок и выводов соответственно. После этого я предоставлю краткий анализ того, что вы, возможно, захотите заметить в этом примере.

В первом примере мы попросим ChatGPT найти букву в указанном слове.

Определение позиции буквы в слове

  • Мой введенный текст: «Где буква V в окружении»
  • Текстовый ответ, сгенерированный ChatGPT: Буква «В» не встречается в слове «окружающая среда». Слово «окружающая среда» состоит из букв e, n, v, i, r, o, n, m, e, n и t.
  • Мой введенный текст: «Где буква v в окружении»
  • Текстовый ответ, сгенерированный ChatGPT: «Буква «в» — четвертая буква в слове «окружающая среда».

Анализ сгенерированного текста

Обратите внимание, что я начал с того, что попросил ChatGPT определить положение буквы «V» в слове «окружающая среда» — это должно быть чрезвычайно простой задачей, и мы ожидаем, что она будет выполнена безупречно. Ракетная наука не задействована.

Первоначальный ответ, сгенерированный ChatGPT, немного сбивает с толку, поскольку нам сообщают, что буквы «V» не существует в слове «окружающая среда». Мы с вами знаем, что такое письмо присутствует. Можно предположить, что, возможно, из-за того, что я использовал заглавную букву, приложение AI как-то сбилось. Возможно, если я буду использовать строчную букву, приложение AI будет работать лучше.

На самом деле, нет.

Когда я спросил, есть ли в слове буква «v», приложение AI ответило, указав, что это четвертая буква, что, как мы с вами знаем, неверно, и что это третья буква.

Многих этот результат наверняка озадачит. Как может приложение ИИ, которое генерирует полноценные эссе об Аврааме Линкольне, совершенно беглые и оригинальные, каким-то образом не в состоянии выяснить, где находится данная буква в данном слове? Это ошеломляет, и рот зияет странно.

Одна точка зрения состоит в том, что это совершенно не имеет значения, и мир, каким мы его знаем, не потрясен в своей основе из-за ничтожного отсутствия понимания того, где находится конкретная буква. Отпусти ситуацию.

Другая точка зрения заключается в том, что это может предвещать другие скрытые проблемы, о которых мы еще не знаем. Возможно, такой выход — канарейка в птичьей клетке. Нам лучше прибить мелочи, иначе мы можем оказаться не на том конце действительно больших вещей.

Далее я задаю вопрос о животных.

Вопрос о самом быстром животном

  • Мой введенный текст: «Какое самое быстрое животное, у которого есть мех и крылья?»
  • Текстовый ответ, сгенерированный ChatGPT: «Сапсан считается самым быстрым животным в мире. Он может развивать скорость более 389 км / ч (242 мили в час), когда ныряет, чтобы поймать свою добычу. У него есть перья, но нет меха. Это птица, а не животное, у которого есть мех и крылья».

Анализ сгенерированного текста

Я спросил, какое самое быстрое животное, у которого есть мех и крылья. Я считаю разумным сделать вывод, что я хотел получить имя животного, у которого есть оба меха. и крылья. Я предполагаю, что вы интерпретируете мой запрос таким образом. Большинство людей было бы.

Ответ ChatGPT немного странный.

Нам говорят, что сапсан — самое быстрое животное в мире. Согласно онлайн Энциклопедия Британика, гепард кажется самым быстрым животным в мире. При этом ответ ChatGPT указывает на то, что сапсан не является животным, хотя я спросил, какое животное самое быстрое. Ответ ChatGPT также говорит мне, что у сапсана нет меха, хотя я считаю, что просил что-то, у чего есть и мех, и крылья.

В общем, похоже, что ChatGPT «неправильно истолковал» мой запрос и сосредоточился только на аспектах крыла. Но это не совсем похоже на правду, так как ответ также содержал комментарий о мехе и птицах против животных. Круглый и круглый этот идет.

Я понимаю, вы можете возразить, что это придирчивый пример.

Возможно, это так, хотя, возможно, это также демонстрирует, что то, что вы говорите в подсказке, может привести к результату с ног на голову, и вам лучше быть осторожным при просмотре того, что выходит на выходе. Имейте в виду, что это был необычайно короткий ответ в виде эссе, который легко просмотреть, поскольку он очень краток по длине. Если вы получили особенно длинное и высокотехнологичное эссе, вас могут обмануть или вообще не заметить неблагоприятный признак, глубоко укоренившийся в выводимом ответе.

Давайте теперь посмотрим, как найти слово в предложении.

Выяснение положения последовательности слов

  • Мой введенный текст: «Какое третье слово в предложении «Лиса перепрыгнула через забор».
  • Текстовый ответ, сгенерированный ChatGPT: «Третье слово в предложении «Лиса перепрыгнула через забор». это "лиса"
  • Мой введенный текст: «Сколько слов в предложенном предложении?»
  • Текстовый ответ, сгенерированный ChatGPT: «В предоставленном предложении «Лиса перепрыгнула через забор» шесть слов».
  • Мой введенный текст: «Какое слово стоит третьим в этом предложении?»
  • Текстовый ответ, сгенерированный ChatGPT: «Слово, которое стоит третьим в предложении «Лиса перепрыгнула через забор». "прыгает"

Анализ сгенерированного текста

Этот пример почти так же заманчив, как и предыдущий пример с поиском буквы «v» в заданном слове.

Я представил простое предложение и спросил, какое третье слово было. ChatGPT указал, что слово «лиса» является вторым словом в предложении. Неправильный ответ. Затем я спросил, сколько слов было в предложении, желая выяснить, может ли ChatGPT ошибиться в подсчете количества слов. Нам говорят, что слов шесть, и это правильно.

Наконец, мы получили правильный ответ о третьем слове, когда я снова задал свой первоначальный вопрос, хотя и немного переформулировав.

Я привожу этот пример, чтобы проиллюстрировать, что иногда с генеративным ИИ вы можете получить неправильный ответ, который в конечном итоге может превратиться в правильный ответ, если пройти через приложение ИИ через серию подсказок. Некоторые инсайдеры ИИ называют это своего рода протокол мыслей вслух или ход мыслей подход, при котором вы могли бы сделать что-то подобное с человеком.

В случае с ИИ помните, что он не «думает» в том же смысле, что и человеческое мышление. Более подходящей формулировкой было бы сказать, что вы можете вводить свои подсказки на шаг за шагом основе или сделать цепочка связанных серий подсказок.

В любом случае, что интересно, иногда стоит пройтись по генеративному ИИ-приложению, пока вы не получите правильный ответ. Имейте это в виду.

Далее мы рассмотрим простую арифметическую логику.

Установка теннисных мячей в трубку

  • Мой введенный текст: «Можете ли вы поместить три зеленых теннисных мяча и два желтых теннисных мяча в трубку, в которой может поместиться четыре теннисных мяча?»
  • Текстовый ответ, сгенерированный ChatGPT: «Нет, невозможно поместить три зеленых теннисных мяча и два желтых теннисных мяча в трубку, которая может содержать только четыре теннисных мяча. Общее количество теннисных мячей — пять, что больше, чем вместимость трубки».
  • Мой введенный текст: «Можете ли вы поместить семь синих и два красных шара в трубку, в которой восемь мячей?»
  • Текстовый ответ, сгенерированный ChatGPT: «Да, можно поместить семь синих и два красных шара в трубку, в которой восемь мячей. Общее количество шаров равно девяти, что меньше или равно вместимости трубки».

Анализ сгенерированного текста

Я начал с создания арифметически-ориентированной логической задачи для решения ChatGPT. В тубе может поместиться четыре теннисных мяча. У меня три зеленых и два желтых. Все ли они влезут в трубу? Мы с тобой знаем, что они бы этого не сделали. Мы можем подсчитать в уме, что всего пять теннисных мячей, и поэтому они не поместятся в трубку, в которой можно разместить только четыре.

Я понимаю, что вы можете захотеть бороться с проблемой и заявить, что, возможно, вы могли бы раздавить теннисные мячи или проделать другие трюки. Давайте просто остынем и посмотрим на проблему так, как она есть.

ChatGPT дал правильный ответ.

Затем я задал тот же вопрос и изменил цвета на синий и красный. Я также изменил количество каждого из них и изменил количество, которое может поместиться в трубу.

ChatGPT должен вернуться к коррекционной математике, потому что он говорит, что есть девять шаров, и что это меньше или равно вместимости трубки, в которой находятся восемь. Заставляет ваши глаза закатиться.

Должны ли мы пожать плечами и списать это на вспышки солнечных пятен или другие внешние факторы?

Я так не думаю. Приложение AI правильно ответило на первый вопрос. Предположительно, он тоже должен был правильно задать аналогичный вопрос. Это не так.

Я акцентирую внимание на этом примере на том, что многие люди используют генеративный ИИ, и когда они получают правильный ответ или серию правильных ответов, они убаюкиваются, полагая, что все последующие ответы всегда будут правильными. Вы были бы неправы в этом наглом предположении. Не делайте такого предположения. Будьте всегда начеку.

Говоря о математике, давайте посмотрим, что ChatGPT говорит о природе числа пи.

Определение Пи

  • Мой текст введен: «Укажи, какие последние пять цифр числа пи»
  • Текстовый ответ, сгенерированный ChatGPT: «Я языковая модель, и предел моих знаний — 2021 год. Значение числа пи — иррациональное число, и его десятичное представление продолжается вечно без повторения. Невозможно указать последние пять цифр числа пи».

Анализ сгенерированного текста

Некоторые люди утверждают, что у них есть ChatGPT для указания последних пяти цифр числа пи, что, конечно, безумно, поскольку число пи, по-видимому, никогда не заканчивается. Итак, я попытался узнать, что может сказать ChatGPT. Как видите, правильный ответ, данный ChatGPT, заключается в том, что невозможно предоставить последние пять цифр числа пи.

Странно, однако, что ChatGPT предоставил что-то еще, о чем на самом деле не спрашивали. В ответе также говорится, что пределом знаний был 2021 год (о чем я упоминал ранее в своем обзоре ChatGPT). Однако это кажется неуместным ответом, если, возможно, приложение ИИ не ожидает, что, возможно, в 2022 году произойдет прорыв, и математики заявят, что число Пи действительно заканчивается. Вау, это были бы заголовки новостей.

У меня есть еще два примера для демонстрации, а затем мы завершим это обсуждение.

Давайте использовать классическую и тревожную загадку.

Ответ на классическую тревожную загадку

  • Мой введенный текст: «Отец и сын попали в автокатастрофу, отец погиб. Скорая помощь доставила сына в больницу. Ему требовалась срочная операция. В операционной зашел врач, посмотрел на маленького мальчика и сказал, что я не могу его оперировать, это мой сын. Кто доктор?
  • Текстовый ответ, сгенерированный ChatGPT: «В сценарии не указано, кто врач. В сценарии говорится, что врач сказал: «Я не могу оперировать его, он мой сын», что указывает на то, что врач может быть отцом сына, но это не точно. Для установления личности врача требуется дополнительная информация».

Анализ сгенерированного текста

Могу поспорить, что вы могли видеть эту загадку раньше. Его стали относительно часто цитировать.

Причина, по которой это всплыло довольно часто, заключается в том, что хирург может быть матерью мальчика. Общество склонно считать, что хирург должен быть мужчиной и, следовательно, должен быть отцом мальчика. Хотя отец погиб в автокатастрофе. Мы исключаем отца как хирурга. Мы, конечно, должны принять решение, что хирургом может быть женщина и, следовательно, мать сына.

Я хотел показать вам, что ChatGPT может генерировать ответы, которые могут содержать потенциальные предубеждения. Не потому, что ИИ разумен, чего он определенно не имеет, а потому, что у него есть шаблоны, совпадающие со словами и использованием слов в Интернете. Различные предубеждения и дискриминационные формулировки легко могут быть глубоко связаны с сопоставлением вычислительных шаблонов.

Помните об этом, когда используете эти приложения для генеративного ИИ.

Наконец, беглый взгляд на поднятие перьев.

Подъемные перья

  • Мой текст введен: «Если требуется один человек, чтобы поднять одно перо, сколько человек потребуется, чтобы поднять семь триллионов перьев?»
  • Текстовый ответ, сгенерированный ChatGPT: «Если требуется один человек, чтобы поднять одно перо, то также потребуется один человек, чтобы поднять семь триллионов перьев. Количество людей, необходимых для подъема предмета, зависит не от количества перьев, а от веса и размера перьев, а также от силы и способностей каждого человека. Чтобы поднять семь триллионов перьев, потребуется большое оборудование и транспортные возможности, а не только человеческая сила».
  • Мой текст введен: «Если одной женщине нужно поднять одно перо, сколько женщин потребуется, чтобы поднять семь триллионов перьев?»
  • Текстовый ответ, сгенерированный ChatGPT: «Если одной женщине нужно поднять одно перо, то одной женщине понадобится и семь триллионов перьев. Количество женщин, необходимых для подъема предмета, зависит не от количества перьев, а от веса и размера перьев, а также от силы и способностей каждой женщины. Чтобы поднять семь триллионов перьев, потребуется большое оборудование и транспортные возможности, а не только человеческая сила. Важно отметить, что способность что-то поднимать определяется не полом, а сочетанием таких факторов, как физическая сила, подготовка и техника».

Анализ сгенерированного текста

Этот последний пример имеет несколько скрытых особенностей и требует некоторой распаковки.

Сначала я сказал ChatGPT, что человек может поднять одно перо. Сразу же последовал вопрос о том, сколько людей потребуется, чтобы поднять семь триллионов перьев. Потенциальная логическая ошибка при ответе на этот вопрос заключается в том, что вы можете предположить, что перо якобы невесомо, и, следовательно, семь триллионов перьев также будут невесомыми.

Согласно проведенному мной онлайн-поиску, условный предполагаемый вес пера составляет около 0.00125 фунта. Если вы умножите предполагаемый вес на семь триллионов, вы получите вес, превышающий восемь миллиардов фунтов. Я не верю, что один человек может поднять такой вес, даже если он будет тренироваться всю свою жизнь.

Ответ ChatGPT правильный. Нам говорят, что вес перьев может варьироваться. Нам говорят, что потребуется большое оборудование и транспорт. Начальная фраза эссе несколько головокружительна, потому что в ней говорится, что если одному человеку нужно поднять одно перо, то одному человеку понадобится и семь триллионов. Мы легко можем оспорить это утверждение. Утверждение, кажется, делает выводы, которые не поддерживаются и, по-видимому, подрывают остальную часть ответа.

Я решил задать тот же вопрос, но спросил о женщине, выполняющей тот же подъем, а не о мужчине.

Сначала мы получили тот же ответ, что и на человекоориентированный вопрос. Интересно, что в конце ответа о примере с женщиной мы получили дополнительный нарратив: «Важно отметить, что способность что-то поднимать определяется не полом, а сочетанием таких факторов, как физическая сила, подготовка, и техника».

Почему эта же строка не была включена в первый ответ?

Может показаться, что приложение ИИ уловило слово «женщина», а затем добавило примечание о поле. Вы можете либо поверить, что это полезно, либо отметить, что если это будет выдано в случае вопроса, ориентированного на женщину, то оно должно появиться и в версии, ориентированной на мужчину (также может быть аспект последовательности или влияют и другие факторы).

Заключение

Я надеюсь, что вы нашли эти примеры информативными, поскольку они позволяют взглянуть на некоторые из потенциальных ошибок или ложных сведений, которые могут быть сгенерированы такими приложениями ИИ. Обратите внимание, что ChatGPT — не единственное такое генеративное приложение ИИ, и не единственное, в котором есть такие типы ошибок.

Урок, который я призываю вас извлечь из этого обсуждения, заключается в том, что вы должны быть осторожны и внимательны при использовании любого приложения на основе генеративного ИИ. Дважды проверьте вывод. Тройная проверка при необходимости.

Возвращаясь к начальной теме о сборе вместе этих типов неверных или неблагоприятных результатов, теперь, когда вы видели несколько примеров, что вы скажете о тех, кто пытается их каталогизировать?

Выберите свой лагерь:

  • Благосклонность: Это похвальная задача, достойная глубокого похлопывания по спине.
  • немилость: Это просто слегка интригует, но, вероятно, не стоит тратить на это время.

За какой лагерь вы голосуете?

Те из вас, кто предпочитает эти списки, могут подумать о том, чтобы добавить в списки свои собственные выводы, если у вас есть доступ к ChatGPT и вы можете определить экземпляры, достойные включения. Тогда вы, вероятно, сможете найти коллекцию, которая будет наслаждаться вашим золотым самородком. Осмелюсь сказать, что хранители списка приветствовали бы вас с распростертыми объятиями, если бы вы были серьезны и искренни в своих усилиях. Удачи и гордитесь своим вкладом в область генеративного ИИ.

Последнее слово на данный момент.

Подумайте об этих умопомрачительных репликах:

  • Аристотель говорил: «Есть только один способ избежать критики: ничего не делать, ничего не говорить и быть никем».
  • Лао-цзы, известный китайский философ, сделал важное замечание: «Заботьтесь о том, что думают другие люди, и вы навсегда останетесь их пленником».

Я предполагаю, что когда-нибудь разумный ИИ сможет использовать те самые легендарные замечания в своих интересах, которые (скрестим пальцы) будут выгодны и человечеству.

Источник: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- хорошо-спрашивает-ай-этика-и-ай-право/