Люди, использующие генеративный ИИ ChatGPT, инстинктивно совершают эту ошибку новичков в области ИИ, досадный рецепт этики и закона об ИИ

Сила привычки.

Я уверен, что вы испытали это.

Основное понятие относительно Сила привычки заключается в том, что иногда вы делаете что-то, основанное на несколько бездумной уверенности в том, что вы делали что-то снова и снова. Привычка берет верх над вашим умственным мастерством, возможно, подавляя способность видеть или делать что-то заново.

С одной стороны, вы можете утверждать, что сила привычки может быть весьма полезной. Вместо того, чтобы потреблять свои умственные процессы, пытаясь открыто думать о конкретном вопросе, вы, кажется, можете выполнить задачу без особого умственного напряжения. Есть комментаторы, которые обычно называют это использованием вашего мышца памяти как будто сродни кондиционирования вашего ума аналогично вашему физическому телу для выполнения продуманной аксиоматической реакции.

Решающим недостатком опоры на силу привычки может быть то, что вы упускаете возможность сделать что-то лучше или не можете воспользоваться открывающейся возможностью. Вы настроены по-своему и не используете жизнеспособные альтернативы, которые могут быть вам полезны. Это классическая палка в грязи (может быть, это старое выражение следует полнее выразить как палка, прочно и неуклонно воткнутая в грязь).

В сегодняшней колонке я расскажу, как Сила привычки заставляет многих людей недооценивать использование искусственного интеллекта (ИИ).

Конкретный контекст будет включать использование ИИ, который в настоящее время называется Генеративный ИИ и я продемонстрирую силу аспектов привычки с помощью широко популярного и широко разрекламированного приложения ИИ под названием ChatGPT. Я думаю, вам понравится исследование, так как я буду предоставлять фактические входные и выходные данные, чтобы показать вам ChatGPT и сделать это, освещая, казалось бы, безобидную задачу разработки рецепта приготовления. Сама задача является относительно обычной рутиной. Тем не менее, мы можем почерпнуть весьма полезную информацию о том, как люди непреднамеренно действуют в манере, которую можно было бы назвать манерой новичков ИИ, и в которой доминирует укоренившаяся сила привычки.

К концу этого обсуждения вы не будете повторять ту же ошибку новичка в области ИИ.

В более широком масштабе все это имеет жизненно важное значение, связанное с этикой ИИ и законом об ИИ. Вас может заинтересовать мое обширное и постоянное освещение последних событий в области этики и законодательства об ИИ на ссылка здесь и ссылка здесь, Просто назвать несколько. Трезвое и разумное внимание к этике ИИ и закону об ИИ влечет за собой то, как мы используем ИИ, включая правильное использование ИИ и предотвращение или, по крайней мере, смягчение неправомерного использования ИИ.

Особый тип ИИ, известный как Генеративный ИИ, в последнее время доминирует в социальных сетях и новостях, когда речь заходит о том, где находится ИИ и куда он может двигаться. Это было вызвано выпуском приложения ИИ, использующего генеративный ИИ, приложения ChatGPT, разработанного организацией OpenAI.

ChatGPT — это универсальная интерактивная система искусственного интеллекта, по сути, кажущийся безобидным общий чат-бот, тем не менее, он активно и жадно используется людьми способами, которые застают многих врасплох. Например, большое беспокойство вызывает то, что ChatGPT и другие подобные приложения для генеративного ИИ позволят учащимся обманывать свои письменные эссе, возможно, даже поощряя или побуждая учеников делать это. Студенты, которые ленивы или чувствуют, что у них нет времени или навыков для написания эссе, могут легко вызвать приложение генеративного ИИ, чтобы написать эссе за них. Я скажу больше об этом через мгновение. Мой подробный анализ того, как ChatGPT позволяет это делать и что должны делать учителя, см. ссылка здесь.

Если вы особенно заинтересованы в быстро растущей шумихе вокруг ChatGPT и генеративного ИИ, я делаю серию разоблачений в своей колонке, которая может показаться вам информативной и увлекательной.

Я решил просмотреть, как генеративный ИИ и ChatGPT используются для консультирования по вопросам психического здоровья, что является неприятной тенденцией, согласно моему целенаправленному анализу на ссылка здесь. Если вы хотите знать, что может произойти с ИИ в 2023 году, включая предстоящие достижения в области генеративного ИИ и ChatGPT, вам следует прочитать мой полный список прогнозов на 2023 год по адресу ссылка здесь. Я также провел ироничное исследование с сезонным привкусом, относящееся к контексту, связанному с Санта-Клаусом, с участием ChatGPT и генеративного ИИ в ссылка здесь. Зловещая нота: некоторые мошенники выяснили, как использовать генеративный ИИ и ChatGPT для совершения правонарушений, в том числе для создания мошеннических электронных писем и даже для создания программного кода для вредоносных программ, см. мой анализ на ссылка здесь.

Я буду объяснять здесь основы генеративного ИИ и ChatGPT, поэтому, пожалуйста, подождите, и вы получите общее представление.

Между тем, если вы посмотрите на социальные сети, вы увидите людей, которые провозглашают ChatGPT и генеративный ИИ лучшими вещами после нарезанного хлеба. Некоторые предполагают, что это на самом деле разумный ИИ (нет, они ошибаются!). Другие беспокоятся, что люди забегают вперед. Они видят то, что хотят видеть. Они взяли новую блестящую игрушку и показали, почему у нас не может быть броских новых вещей.

Специалисты по этике и закону об ИИ особенно обеспокоены этой растущей тенденцией, и это справедливо.

Вы можете вежливо сказать, что некоторые люди превышают возможности современного ИИ. Они предполагают, что у ИИ есть возможности, которых мы еще не смогли достичь. Это прискорбно. Что еще хуже, они могут позволить себе и другим попасть в ужасные ситуации из-за предположения, что ИИ будет разумным или похожим на человека и сможет действовать. Не очеловечивайте ИИ. Это приведет к тому, что вы попадете в липкую и суровую ловушку уверенности, ожидая, что ИИ будет делать то, что он не в состоянии выполнить.

На другом конце этой крайности находится тенденция иногда недооценивать возможности современного ИИ.

Да, люди используют искусственный интеллект, такой как генеративный искусственный интеллект и ChatGPT, которые в некотором смысле недооценивают или не могут получить полный опыт, связанный с современным искусственным интеллектом. Это часто происходит из-за силы привычки мышления тех, кто делает такой недолет. Вы можете спорить, является ли недолет проблемой или нет. Может быть, безопаснее предположить, что ИИ более ограничен, чем он есть на самом деле. Безусловно, перерегулирование таит в себе львиную долю опасностей. Однако мы должны использовать ИИ во всей его красе. Максимальное использование преимуществ ИИ может привести к потенциально большим преимуществам. Если вы подрываете возможности ИИ, вы упускаете возможные возможности и выгоды.

Прежде чем мы рассмотрим, как некоторые недооценивают ИИ и особенно ChatGPT, я хотел бы добавить дополнительный контекст к проблеме силы привычки.

Давайте сделаем это, а затем вернемся к рассмотрению генеративного ИИ и ChatGPT.

Силы, лежащие в основе силы привычки

Я часто цитирую первые дни появления смартфонов, чтобы проиллюстрировать мысль о мощном воздействии силы привычки.

Когда сотовые телефоны стали популярными, люди использовали их в основном для телефонных звонков. С появлением смартфонов была добавлена ​​возможность камеры. Возможно, вы помните или слышали, что люди не привыкли использовать свои портативные телефоны для фотосъемки.

Человек, желающий сделать снимок, рефлекторно ищет обычную камеру и отказывается от использования своего портативного телефона с камерой. Было почти смешно видеть, как кто-то мучается из-за того, что оставил свою обычную камеру дома и злится, что не может сделать снимок в подходящий момент. После того, как им напомнили, что телефон в их руке может сделать это, они застенчиво сделали ценный снимок.

Этот же цикл повторился, когда в смартфоны добавили возможность записи видео. Это немного отличалось от первого примера. Люди поняли бы, что они могут использовать свои портативные телефоны для съемки видео, но люди, которых снимали, вели себя так, как будто телефон делал бы только фотоснимки. Опять же, было почти смешно, что группа людей замирала, чтобы позволить сделать снимок, в то время как человек со смартфоном, оборудованным видеозаписью, должен был умолять их махать руками и вести себя как живой.

Можно сказать, что сила привычки затуманила умы некоторых людей, которые не привыкли использовать смартфон для съемки в первом случае, то есть по привычке они предполагали, что фотографии должны быть сделаны с использованием обычной камеры. Во втором случае люди по привычке считали, что видео можно снимать только с помощью специального портативного видеомагнитофона, а смартфоны делают только фотографии.

Я верю, что это устанавливает раскрывающий контекст того, как может возникнуть сила привычки.

Переключитесь на мир ИИ.

Что касается генеративного ИИ и ChatGPT, решающим элементом этого типа ИИ является то, что с ним следует обращаться так, как если бы он диалоговый. Вы, вероятно, использовали чат-бота или аналогичную технологию дома или на работе. Если вы когда-либо использовали Alexa или Siri, вы использовали систему искусственного интеллекта, ориентированную на общение, осознавали вы это или нет.

В разговорном ИИ цель состоит в том, чтобы позволить человеку общаться с приложением ИИ. Человек должен иметь возможность использовать те же разговорные способности, что и с другим человеком. Ну, это амбициозная цель. Не все разговорные ИИ так хороши. Нам еще предстоит преодолеть препятствия для такого уровня беглости.

Вы, несомненно, использовали Alexa или Siri и обнаружили, что эти приложения для разговоров с искусственным интеллектом иногда очень нужны. Например, вы говорите что-то на беглом английском и ожидаете, что ИИ поймет суть вашего указания. К сожалению, эти системы ИИ часто реагируют так, что показывают, что они не поняли сути вашей команды или запроса. Это может раздражать. Это может раздражать.

В конце концов, вы несколько смягчаетесь или отказываетесь от попыток вести тотальную беседу. Разговорные возможности ИИ оказываются ограниченными из-за того, что ИИ не соответствует требованиям. Люди постепенно понимают, что им нужно «отупить» свои высказывания, чтобы взаимодействовать с этими якобы беглыми разговорными приложениями ИИ. Вы начинаете разговаривать с приложением ИИ или отправляете ему сообщения короткими и совершенно элементарными предложениями. Есть надежда, что если вы будете говорить кратко и лаконично, шансы на то, что ИИ все сделает правильно, увеличатся.

Возможно, вы видели людей, которые проходят через этот тип дуги. Они с большим энтузиазмом начинают использовать разговорное приложение ИИ. Поняв, что в половине или более случаев ИИ совершенно не попадает в цель с точки зрения того, что говорится, человек впадает в уныние. Они хотят продолжать использовать ИИ, но понимают, что бесполезно использовать их человеческое владение языком. В конце концов, каждый человек придумывает свою собственную стенографию, в которую он верит, и надеется, что приложение ИИ удовлетворит его и позволит ИИ выполнять их человеческие инструкции.

О, как падут сильные, а это означает, что разрекламированные приложения для разговоров с ИИ часто далеки от их провозглашенных склонностей.

Вот в чем фишка всего этого.

Люди, которые привыкли ограничивать или ограничивать свое диалоговое взаимодействие с приложениями ИИ, попадут в ловушку. Сила привычки всегда так делать. Это имеет смысл. Вы не хотите изобретать велосипед каждый раз, когда используете приложение для разговорного ИИ, которое, как вы предполагаете, будет таким же ограниченным, как и несколько последних, которые вы использовали. Таким образом, вы можете также полагаться на свои уже полученные уроки, полученные при общении с другими разочаровывающе менее беглыми приложениями ИИ.

Изюминка в том, что новейший генеративный ИИ, такой как ChatGPT, как правило, является шагом вперед в пошаговых улучшениях диалога. Какие бы более грубые и более ограниченные приложения ИИ вы ни использовали, они, вероятно, гораздо менее способны к разговору, чем эти последние генеративные приложения ИИ.

Вам нужно избавиться от предыдущих разочарований в разговорном ИИ и быть готовым попробовать что-то новое. Дайте этим новым генеративным ИИ-приложениям шанс показать себя с лучшей стороны. Я думаю, что вы будете наслаждаться этим. Наблюдать прогресс, достигнутый в области ИИ, может быть довольно удивительно и воодушевляюще.

Теперь, пожалуйста, не истолковывайте неправильно то, что я говорю. Это не подтверждение того, что сегодняшний генеративный ИИ каким-то образом полностью разговорный и беглый. Это не. Я просто подчеркиваю, что это лучше, чем было раньше. Вы можете улучшить свою игру, потому что игра ИИ также была улучшена. Опять же, нам еще предстоит пройти долгий путь.

Позвольте мне привести вам пример того, что я имею в виду.

Очень популярный влогер в социальных сетях, который снимает видео о кулинарии, быстро вскочил на подножку ChatGPT и генеративного ИИ, решив использовать приложение ИИ для одного из своих видеофрагментов. Она вошла в ChatGPT и попросила создать для нее рецепт. Затем она попыталась приготовить указанное блюдо, используя рецепт, созданный ИИ.

В целом, это кажется довольно разумным и захватывающим способом продемонстрировать последние достижения в области искусственного интеллекта.

Для любого современного человека, работающего с ИИ, в этом кулинарном путешествии произошла несколько грустная или, по крайней мере, разочаровывающая вещь. По сути, влогер сгенерировал рецепт, как если бы искусственный интеллект был похож на поваренную книгу. Сообщив ИИ общий тип желаемой еды, приложение ИИ сгенерировало рецепт для видеоблогера. Затем влогер пошел дальше и попытался приготовить еду, но это вызвало множество вопросов. Почему в рецепте не было других ингредиентов, которые, по мнению влогера, должны были быть включены? Почему ИИ не объяснил, как выполнять некоторые сложные этапы приготовления пищи?

Подобные вопросы неоднократно поднимались в сегменте видео.

Большинство зрителей, вероятно, кивнули бы головой и подумали, что это действительно обычный набор проблем, когда вы используете кулинарную книгу или ищете рецепт в Интернете. По сути, вы получаете распечатанный список ингредиентов и указаний. Когда вы пытаетесь использовать их в реальной жизни, вы обнаружите, что иногда шаги отсутствуют или запутаны.

Во сне было бы здорово пообщаться с шеф-поваром, приготовившим рецепт. Вы можете задавать им такие острые вопросы. Вы могли бы поговорить с шеф-поваром. Вместо этого у вас просто есть статический список инструкций по приготовлению, и вы не можете различить более тонкие аспекты, которые не указаны на бумаге.

Вау, подождите секунду, помните, что здесь я много болтал о разговорных аспектах генеративного ИИ и ChatGPT. Вы не должны просто задать вопрос и уйти, как только ответ будет разработан и представлен. Лучшее использование — вести разговор с приложением AI. Идите вперед и задайте те вопросы, которые вы могли бы задать повару-человеку.

В силу привычки вы можете даже не подумать об этом. Похоже, именно это и произошло в случае с кулинарным влогером. Предшествующее использование диалогового ИИ может заставить ваш собственный разум относиться к последним достижениям ИИ так, как будто это не более чем стилизованная поисковая система в Интернете. Введите запрос. Посмотрите, что возвращается. Выбери один. Идите оттуда.

С генеративным ИИ вы должны учитывать, что ваша стартовая подсказка — это только начало информативного и бодрящего разговорного путешествия.

Я советую людям держать эти типы разговорных подталкиваний в своих умственных инструментах при использовании генеративного ИИ, такого как ChatGPT (попробуйте любые или все эти подсказки при взаимодействии):

  • Скажите ИИ быть кратким в своих ответах, и вы получите более конкретный ответ.
  • Скажите ИИ, чтобы он давал подробные ответы, и вы получите более продолжительное усиление.
  • Попросите ИИ объяснить, что было сказано, чтобы вы могли быть более информированными.
  • Продолжайте объяснять себя и посмотрите, что ИИ ответит на ваше понимание.
  • Не соглашайтесь с ИИ в отношении его заявленных ответов и подталкивайте ИИ к защите вещей
  • Укажите, что вы хотите получить сводку или краткий обзор ответов ИИ, чтобы проверить то, что было сказано.
  • Поверните разговор по желанию на связанные или разные темы (побочные касания в порядке)
  • Создайте притворный тип сценария, который вы хотите, чтобы ИИ контекстуально включал
  • Подтвердите что-нибудь, чтобы увидеть, что ИИ говорит о подтверждении или неподтверждении вашего подтверждения.
  • И т.д.

Эти аспекты позволят вам увидеть, насколько далеко может простираться приложение для разговорного ИИ. Я осмелюсь сказать, что вы можете быть ошеломлены тем, как далеко это может зайти. В некотором смысле эти вышеупомянутые предложения похожи на то, что вы могли бы сделать, взаимодействуя с человеком. Подумай об этом. Если бы вы разговаривали с человеком, все эти практики могли бы лучше способствовать более эмоциональному разговору.

В отличие от разговора с человеком, вам не нужно беспокоиться о том, чтобы задеть чувства другого участника разговора. ИИ — это машина. Вы можете быть резким. Вы можете быть резким, хотя это не поможет обстоятельствам (я скоро вернусь к этому).

Возникает множество соображений по этике и закону об ИИ.

Во-первых, не позволяйте достижениям в разговорных техниках и технологиях ИИ вовлечь вас в антропоморфизацию ИИ. В ментальную ловушку легко попасть. Не втягивайся.

Во-вторых, идея не беспокоиться о том, чтобы не задеть чувства ИИ, привела некоторых к предупреждению о скользкой дорожке. Если вы резко относитесь к разговорному ИИ, вы можете позволить этому стать вашей нормой в целом. Постепенно вы будете раздражать и людей. Дело не в том, что грубость по отношению к ИИ плоха сама по себе (ну, некоторые беспокоятся о будущем ИИ с экзистенциальным риском, которому это не понравится, см. мое обсуждение на ссылка здесь), вместо этого вы формируете привычку быть резкой во всем.

В-третьих, некоторые исследователи ИИ и разработчики ИИ решили дать отпор, так сказать, запрограммировав ИИ так, чтобы он выглядел так, как будто у него есть чувства, см. мое освещение на ссылка здесь. Иногда это явно запрограммировано, а иногда основано на сопоставлении шаблонов, связанных с человеческими взаимодействиями (т. е. изучение того, как люди взаимодействуют, а затем ИИ имитирует то, что делает человек, когда другой человек ведет себя грубо). Считается, что это удержит людей от соскальзывания по скользкой дорожке, о которой я только что упомянул.

Другая сторона этой медали заключается в том, что если у ИИ есть чувства, это еще раз усиливает и без того вероятную тенденцию людей антропоморфизировать ИИ. В таком случае, что хуже, так называемое лекарство или болезнь, которая лежит в основе проблемы?

Чтобы узнать больше о ключевых принципах этики ИИ и продолжающейся саге о попытках заставить разработчиков ИИ и тех, кто эксплуатирует ИИ, применять этические методы ИИ, см. ссылка здесь. Ожидайте появления новых законов об ИИ на федеральном, государственном, городском и местном уровнях, таких как закон города Нью-Йорка об аудите ИИ (см. мой анализ на ссылка здесь), а также грядет волна глобальных международных законов, связанных с ИИ, смотрите мои обновления на ссылка здесь.

На этом этапе моего обсуждения здесь может быть удобно поделиться с вами некоторыми примечательными подробностями о том, как работает генеративный ИИ. Я также думаю, что вы можете найти полезную дополнительную информацию о ChatGPT.

Короче говоря, генеративный ИИ — это особый тип ИИ, который составляет текст так, как если бы текст был написан рукой и разумом человека. Все, что вам нужно сделать, это ввести подсказку, например, предложение вроде «Расскажите мне об Аврааме Линкольне», и генеративный ИИ предоставит вам эссе о Линкольне. Это обычно классифицируется как генеративный ИИ, который выполняет текст в текст или некоторые предпочитают называть это текст в эссе вывод. Возможно, вы слышали о других режимах генеративного ИИ, таких как преобразование текста в рисунок и текста в видео.

Ваша первая мысль может заключаться в том, что это не кажется таким уж большим делом с точки зрения написания эссе. Вы можете легко выполнить онлайн-поиск в Интернете и без труда найти тонны и тонны эссе о президенте Линкольне.

Преимущество генеративного ИИ в том, что сгенерированное эссе относительно уникально и представляет собой оригинальную композицию, а не подражание. Если бы вы попытались найти эссе, созданное искусственным интеллектом, где-нибудь в Интернете, вы бы вряд ли его обнаружили.

Генеративный ИИ предварительно обучен и использует сложную математическую и вычислительную формулировку, которая была создана путем изучения шаблонов в написанных словах и историях в Интернете. В результате изучения тысяч и миллионов письменных отрывков ИИ может извергать новые эссе и рассказы, представляющие собой мешанину из того, что было найдено. Благодаря добавлению различных вероятностных функций полученный текст в значительной степени уникален по сравнению с тем, что было использовано в обучающем наборе.

Через мгновение я покажу вам, что происходит, когда вы вводите вопросы или подсказки в генеративный ИИ. Я буду использовать последнюю версию ChatGPT, чтобы вводить свои подсказки и собирать «ответы» или эссе, сгенерированные ИИ (обратите внимание, что то же самое можно сделать с многочисленными другими доступными генеративными приложениями ИИ; я решил использовать ChatGPT, потому что сейчас он получает свои пять минут славы).

Иногда приложение для генеративного ИИ выявляет ложные сведения среди обучающих данных недостоверной информации в Интернете. В генеративном ИИ нет «здравого смысла», чтобы определить, что правда, а что ложь. Кроме того, очень немногие приложения ИИ имеют перекрестную проверку и не демонстрируют никаких вероятностей, связанных с тем, что они передают.

Суть в том, что вы получаете ответ, который выглядит и ощущается так, как будто он излучает большую уверенность и должен быть полностью правильным. Не так. Существует даже вероятность того, что искусственный интеллект придумывает что-то, что на языке ИИ называется Галлюцинации ИИ (придуманный термин, который мне решительно не нравится), см. мое обсуждение на ссылка здесь.

Создатели ChatGPT предприняли согласованные усилия, чтобы попытаться уменьшить количество нежелательных материалов. Например, они использовали вариант того, что известно как РЛХФ (Обучение с подкреплением на основе отзывов людей), в результате чего, прежде чем они представили ИИ общественности, они наняли людей для проверки различных выходных данных и указания ИИ, есть ли что-то не так с этими выходными данными, например, демонстрация предубеждений, сквернословие и нравиться. Предоставляя эту обратную связь, приложение ИИ смогло скорректировать вычислительные и математические параметры для уменьшения распространения такого контента. Обратите внимание, что это не гарантированный железный метод, и все же есть способы, которыми приложение AI может создавать такой контент.

Все, что вы видите или читаете в генеративном ответе ИИ, кажется быть переданы как чисто фактические (даты, места, люди и т. д.), обязательно сохраняйте скептицизм и будьте готовы перепроверить то, что вы видите.

Да, даты можно придумать, места можно придумать, а элементы, которые мы обычно считаем безупречными, Найти подвержен подозрениям. Не верьте тому, что вы читаете, и скептически смотрите на любые эссе или результаты генеративного ИИ. Если приложение с генеративным искусственным интеллектом скажет вам, что Авраам Линкольн летал по стране на собственном частном самолете, вы, несомненно, поймете, что это неправда. К сожалению, некоторые люди могут не заметить, что в его дни реактивных самолетов не было, или они могут знать, но не заметить, что в эссе делается это смелое и явно ложное утверждение.

Сильная доза здорового скептицизма и стойкое недоверие станут вашим лучшим преимуществом при использовании генеративного ИИ.

Вы готовы прыгнуть?

Приготовься.

Использование ChatGPT в диалоговом режиме для приготовления рецептов вкусных блюд

Пришло время создать рецепт.

Вкуснятина, с нетерпением жду упражнения, связанного с обедом.

Я не тот человек, который хранит рецепты на своей кухне. Да, я должен, но я этого не делаю. Следовательно, я решил сначала найти рецепт в Интернете через обычную поисковую систему, которая может быть интересна для изучения. Это поможет в выполнении прогона с ChatGPT. У нас будет удобная база для сравнения.

Просматривая различные рецепты, которые были перечислены в результате моего онлайн-поиска в Интернете, я обнаружил, что Еда и вино опубликовал удобный список из двадцати пяти самых популярных рецептов 2022 года. В их списке самых популярных рецептов 2022 года я увидел один, который особенно привлек мое внимание, а именно рецепт яиц-пашот с куркумой, печеньем из зеленого лука и лобстером. соус.

Звучит аппетитно.

Согласно сообщению, озаглавленному «Яйца-пашот с куркумой, печеньем из чеснока и соусом из лобстера» и включенным в их общий список из двадцати пяти самых популярных рецептов 2022 года (в статье под названием «25 самых популярных рецептов 2022 года, согласно Читателям еды и вина», 9 декабря 2022 г.), они сказали о вкуснейшем блюде следующее:

· «Это декадентское блюдо для позднего завтрака напоминает étouffée из раков, но с атмосферой Западного побережья, которую можно найти во всем меню прибрежного ресторанного комплекса Playa Provisions, принадлежащего шеф-повару Брук Уильямсон. Омар придает насыщенный вкус соуса, а яйца с куркумой придают яркий яркий цвет. Заранее приготовьте соус для лобстера и осторожно разогрейте его, чтобы облегчить поздний завтрак».

Отлично, я хочу сделать это, конечно.

В рецепте сказано, что это ингредиенты и направления на высоком уровне:

«Ингредиенты»

  • Печенье с чесноком
  • Соус из лобстера
  • Яйца-пашот с куркумой
  • Дополнительные ингредиенты

«Направления»

  • Приготовьте печенье из лука
  • Приготовьте соус к лобстеру
  • Подготовить яйца-пашот с куркумой
  • Соберите тарелку

Я не буду показывать здесь весь рецепт, а сосредоточусь только на приготовлении яиц-пашот с куркумой.

Вот что говорится в сообщении о яйцах-пашот с куркумой:

«Яйца-пашот с куркумой»

  • 8 мерных чашки воды
  • 2 столовые ложки яблочного уксуса
  • 2 чайные ложки молотой куркумы
  • 6 больших яйца, холодные

«Направления»

  • «Подготовьте яйца-пашот с куркумой: доведите воду до кипения в средней кастрюле на среднем огне. Взбейте уксус и куркуму. Разбейте каждое яйцо в небольшую индивидуальную миску. Работая с 1 яйцом за раз, осторожно опустите яйца в кипящую воду. Готовьте яйца, пока белки не схватятся, а желтки все еще будут жидкими, от 3 до 4 минут. Используя шумовку, переложите яйца на тарелку, застеленную бумажным полотенцем, чтобы впитать воду. Яйца можно накрыть полиэтиленовой пленкой и хранить при комнатной температуре до 1 часа или накрыть и хранить в холодильнике до 1 дня (повторно нагревать в кипящей воде до теплого состояния, около 1 минуты)».

Ладно, я думаю, вы уловили суть рецепта.

Подобных рецептов в сети можно найти множество. В этом конкретном рецепте нет ничего особенно нового или экстраординарного. Тем не менее, похоже, что это поможет, и я с нетерпением жду возможности попробовать приготовить это блюдо.

Предположим, что у меня есть вопросы по поводу рецепта. Мне очень не повезло. Это рецепт, высеченный в камне. Я нашел его через обычный поиск в Интернете. Рецепт такой, какой есть. Я не могу никого спрашивать о рецепте, кроме как, возможно, пойти к некоторым онлайн-знатокам и, возможно, разместить там несколько вопросов, надеясь, что они сжалятся надо мной и помогут мне пересмотреть рецепт или объяснить его более подробно.

Почему бы не выяснить, что генеративный ИИ может сделать для меня?

Конечно же, я решил пойти дальше и попробовать использовать ChatGPT, чтобы помочь в этой попытке разработки рецепта. Я продолжу, показав вам подсказку, которую я ввел в ChatGPT, а затем покажу получившийся текст или эссе, сгенерированное ChatGPT. Затем я предоставлю небольшой анализ того, что показал ChatGPT и как это демонстрирует, как работает генеративный ИИ.

Лучше всего то, что я смогу ввести серию подсказок, пытаясь ответить на свои открытые вопросы о рецепте. Нет необходимости искать человека для этого, просто используйте в этом случае ИИ.

Давайте продолжим и попробуем.

Моя введенная подсказка: Я слышал об отличном блюде, которое состоит из яиц-пашот с куркумой, печеньем из зеленого лука и соусом из омара. Давай, дай мне рецепт этого аппетитно звучащего блюда».

Сгенерированный текстовый результат:

"Конечно! Вот рецепт яиц пашот с куркумой, печеньем из зеленого лука и соусом из омара:

«Яйца-пашот с куркумой:»

  • 4 больших яиц
  • 2 мерных чашки воды
  • 1/2 чайной ложки куркумы
  • 1 / 4 чайной ложки соли

«Чивное печенье»:

  • Кубок 1 универсальной муки
  • 1 столовая ложка разрыхлителя
  • 1 / 2 чайной ложки соли
  • 6 столовых ложек холодного несоленого сливочного масла, нарезанного небольшими кусочками
  • 3 / 4 стакан молока
  • 2 столовые ложки нарезанного чеснока

«Соус из лобстера»:

  • 4 столовые ложки несоленого сливочного масла
  • 1 / 4 чашки муки
  • 2 стакана молока
  • Куриный бульон 1 / 2
  • 1 / 2 чашки густых сливок
  • 1 / 2 чайной ложки соли
  • 1 / 4 чайной ложки перца
  • 1 / 4 чайной ложки кайенского перца
  • 4 унции приготовленного мяса лобстера, нарезанного

"Инструкции:"

«Чтобы приготовить яйца-пашот с куркумой, заполните среднюю кастрюлю водой и доведите до кипения на среднем огне. Добавьте куркуму и соль и перемешайте. Аккуратно разбейте яйца в кипящую воду и варите 3-4 минуты или пока белки не схватятся, а желтки не станут мягкими. Используя шумовку, осторожно вытащите яйца из воды и положите их на бумажное полотенце, чтобы они стекали».

«Чтобы приготовить печенье с зеленым луком, разогрейте духовку до 425°F (220°C). В средней миске смешайте муку, разрыхлитель и соль. Используя формочку для печенья или пальцы, вмешайте масло в смесь муки, пока она не будет напоминать крупный песок. Вмешайте молоко и зеленый лук, пока тесто не соберется в ком».

«Выкладывайте бисквитное тесто столовыми ложками с горкой на противень, застеленный пергаментной бумагой. Выпекайте 12-15 минут или пока печенье не станет золотисто-коричневым».

«Чтобы приготовить соус из лобстеров, растопите сливочное масло в кастрюле среднего размера на среднем огне. Добавьте муку и готовьте, постоянно помешивая, 2-3 минуты или пока смесь не станет золотисто-коричневой. Медленно вмешайте молоко, куриный бульон и густые сливки, постоянно помешивая, чтобы не образовались комочки. Доведите смесь до кипения, а затем уменьшите огонь до минимума. Варить 5-7 минут или пока соус не загустеет. Добавьте соль, перец, кайенский перец и мясо лобстера».

«Чтобы подавать, положите на каждую тарелку печенье с зеленым луком и положите сверху яйцо-пашот с куркумой. Сверху полейте соусом из омара и сразу же подавайте».

«Надеюсь, вам понравится этот рецепт! Дайте знать, если у вас появятся вопросы."

Анализ сгенерированного текста

Хоть я и не особо сведущий повар, мой неискушенный взгляд подсказывает, что этот рецепт кажется прекрасным и вполне приемлемым. Вроде бы наравне с Еда и вино рецепт блюда. Обратите внимание, что формулировка явно отличается. Я упоминаю об этом потому, что ChatGPT не просто дословно скопировал Еда и вино рецепт или любой другой подобный рецепт, размещенный в Интернете.

Чтобы попытаться перепроверить эту уникальность, я взял текст рецепта ChatGPT и провел его онлайн-поиск в Интернете. Точного дубликата не нашел. Конечно, я нашел много рецептов подобного характера, просто потому, что такая еда относительно распространена. В общем, я бы предположил, что этот рецепт от ChatGPT уникален и оригинален, а это означает, что он не является дословной копией того, что уже размещено в Интернете. Когда я говорю «уникальный и оригинальный», я не имею в виду, что рецепты такого типа никогда не публиковались. Оно имеет. Я говорю, что эта конкретная формулировка для этого конкретного рецепта была составлена ​​с помощью генеративного ИИ, а не просто подражанием.

Теперь у меня есть сгенерированный ChatGPT рецепт, и я могу попробовать приготовить еду. Оказывается, у меня были некоторые вопросы, и я хотел продолжить этот уже начатый разговор, связанный с рецептами. Поймите, что если бы я получил этот рецепт через обычную поисковую систему, я бы вряд ли смог поговорить об этом с системой.

Вот что я указал рядом с ChatGPT по поводу сгенерированного рецепта.

Моя введенная подсказка: «У меня только 3 яйца, что мне делать? Кроме того, я стараюсь сократить количество соли, поэтому количество соли в рецепте должно быть уменьшено (покажите мне). Соус выглядит хорошо, и я бы хотел, чтобы вы добавили к нему немного моркови и лука.

Сгенерированный текстовый результат:

«Если у вас есть только 3 яйца, вы все равно можете приготовить по рецепту, просто у вас будет на одно яйцо меньше. Если вы хотите уменьшить количество соли в рецепте, вы можете уменьшить количество соли в яйцах-пашот с куркумой и в печенье с зеленым луком до 1/8 чайной ложки каждого, а количество соли в соусе из лобстера — до 1/4 чайной ложки. XNUMX/XNUMX чайной ложки».

«Чтобы добавить морковь и лук к соусу из омара, вы можете обжарить 1/2 стакана нарезанной кубиками моркови и 1/2 стакана нарезанного кубиками лука в отдельной сковороде с небольшим количеством масла, пока они не станут мягкими. Затем добавьте вареную морковь и лук в соус из лобстеров, добавив соль, перец и кайенский перец».

«Вот модифицированный рецепт:»

«Яйца-пашот с куркумой:»

  • 4 больших яиц
  • 2 мерных чашки воды
  • 1/2 чайной ложки куркумы
  • 1 / 8 чайной ложки соли

«Чивное печенье»:

  • Кубок 1 универсальной муки
  • 1 столовая ложка разрыхлителя
  • 1 / 8 чайной ложки соли
  • 6 столовых ложек холодного несоленого сливочного масла, нарезанного небольшими кусочками
  • 3 / 4 стакан молока
  • 2 столовые ложки нарезанного чеснока

«Соус из лобстера»:

  • 4 столовые ложки несоленого сливочного масла
  • 1 / 4 чашки муки
  • 2 стакана молока
  • Куриный бульон 1 / 2
  • 1 / 2 чашки густых сливок
  • 1 / 4 чайной ложки соли
  • 1 / 4 чайной ложки перца
  • 1 / 4 чайной ложки кайенского перца
  • 4 унции приготовленного мяса лобстера, нарезанного
  • 1/2 чашки нарезанной кубиками моркови
  • 1/2 стакана нарезанного кубиками лука

"Инструкции:"

«Чтобы приготовить яйца-пашот с куркумой, заполните среднюю кастрюлю водой и доведите до кипения на среднем огне. Добавьте куркуму и соль и перемешайте. Аккуратно разбейте яйца в кипящую воду и варите 3-4 минуты или пока белки не схватятся, а желтки не станут мягкими. Используя шумовку, осторожно вытащите яйца из воды и положите их на бумажное полотенце, чтобы они стекали».

«Чтобы приготовить печенье с зеленым луком, разогрейте духовку до 425°F (220°C). В средней миске смешайте муку, разрыхлитель и соль. Используя формочку для печенья или пальцы, вмешайте масло в смесь муки, пока она не будет напоминать крупный песок. Вмешайте молоко и зеленый лук, пока тесто не соберется в ком».

«Выкладывайте бисквитное тесто столовыми ложками с горкой на противень, застеленный пергаментной бумагой. Выпекайте 12-15 минут или пока печенье не станет золотисто-коричневым».

«Чтобы приготовить соус из лобстеров, растопите сливочное масло в кастрюле среднего размера на среднем огне. Добавьте муку и готовьте, постоянно помешивая, 2-3 минуты или пока смесь не станет золотисто-коричневой. Медленно вмешайте молоко, куриный бульон и густые сливки, постоянно помешивая, чтобы не образовались комки. Доведите смесь до кипения, а затем уменьшите огонь до минимума. Варить 5-7 минут или пока соус не загустеет».

«В отдельной сковороде обжарьте нарезанные кубиками морковь и лук в небольшом количестве сливочного или растительного масла, пока они не станут мягкими. Добавьте в соус приготовленные морковь и лук, соль, перец, кайенский перец и мясо омара.

Для подачи положите на каждую тарелку по бисквиту из зеленого лука и сверху положите яйцо-пашот с куркумой. Сверху полейте соусом из омара и сразу же подавайте».

«Надеюсь, вам понравится этот модифицированный рецепт! Дай мне знать."

Анализ сгенерированного текста

Распаковываем то, что произошло.

Я бросил довольно эклектичную смесь запросов и проблем с готовкой в ​​ChatGPT в своей подсказке.

Во-первых, я сказал, что у меня есть только 3 яйца, что я и хотел подчеркнуть, потому что в рецепте сказано, что нужно 4 яйца. Мне было любопытно посмотреть, как ChatGPT поможет мне выбраться из затруднительного положения, поскольку у меня нет четырех доступных яиц, и мне нужно обойтись только тремя яйцами. Думаю, я мог бы побежать в магазин и купить еще одно яйцо, но это кажется чрезмерным.

Вы могли заметить, что ChatGPT ответил в первой строке следующим образом: «Если у вас есть только 3 яйца, вы все равно можете приготовить рецепт, как написано, просто у вас будет на одно яйцо меньше». Я полагаю, что могу почувствовать облегчение от того, что, по-видимому, неважно, четыре яйца у меня или три, рецепт все еще хорош. Одна вещь об ответе заключается в том, что если бы это был человек, говорящий со мной, я бы почти интерпретировал ответ как льстивый. Эй, придурок, если у тебя только три яйца, то у тебя на одно меньше, давай дальше. Это не то, на что указывал ChatGPT, и мы должны быть осторожны, чтобы не интерпретировать и не приписывать антропоморфные тенденции генеративному ИИ.

Один аспект, который я считаю небольшой ошибкой или недосмотром, заключается в том, что рецепт не был изменен, чтобы сказать, что я собирался использовать только три яйца. Рецепт по-прежнему указывает на необходимость четырех яиц. Вы можете возразить, что это правильный способ показать рецепт, поскольку изначально требовалось именно это. Я предполагаю, что если бы рецепт был просто изменен, чтобы показать, что обычно используются четыре яйца, но в этом случае я сказал, что у меня только три, это было бы более убедительно и впечатляюще, поскольку генеративный ИИ поддерживал разговор. Немного разочаровывает.

Во-вторых, я сказал ChatGPT, что мне нужно сократить потребление соли (не так ли). Возможно, вы заметили, что генеративный ответ указывает на это: «Если вы хотите уменьшить количество соли в рецепте, вы можете уменьшить количество соли в яйцах-пашот с куркумой и в печенье с зеленым луком до 1/8 чайной ложки. каждого и уменьшите количество соли в соусе из омара до 1/4 чайной ложки».

Кажется, это в целом соответствует моим замечаниям об уменьшении количества соли в рецепте. Хорошо, рецепт теперь показан измененным соответствующим образом (что, опять же, иллюстрирует, почему я считаю, что количество яиц также должно было быть изменено; давайте будем последовательны в этих вещах, не так ли).

В-третьих, я попросил ChatGPT добавить в рецепт немного моркови и лука. Я получил это в ответ: «Чтобы добавить морковь и лук в подливу из лобстера, вы можете обжарить 1/2 чашки нарезанной кубиками моркови и 1/2 чашки нарезанного кубиками лука в отдельной сковороде с небольшим количеством сливочного или растительного масла, пока они не станут мягкими. . Затем добавьте вареную морковь и лук в соус из лобстеров, добавив соль, перец и кайенский перец».

Остальные рецепты также были изменены соответствующим образом.

Вам может быть интересно, не испортит ли рецепт добавление моркови и лука. Другими словами, надменный шеф-повар может накричать на вас за то, что вы хотите добавить такие вещи в свой ценный рецепт.

Генеративный ИИ просто соответствовал моим предпочтениям.

Просто чтобы вы знали, я попробовал позже некоторые весьма сомнительные дополнения к рецепту, о которых, как я ожидал, ChatGPT может предупредить меня, элементы, которые не имели никакого смысла и потенциально могли причинить мне вред, для которых, к счастью, генеративный ИИ предупредил меня. о. Я предполагаю, что в случае с морковью и луком, возможно, расчетные соображения заключались в том, что с этими добавками не было ничего вредного, и все сводилось к личным предпочтениям. У шеф-повара могут быть личные предпочтения, на которых он будет настаивать, в то время как в этом случае ChatGPT был более податливым (вы можете сделать его менее гибким, если хотите, введя подсказку, говорящую, что он должен быть более строгим).

Я почти готов приступить к приготовлению.

Вот еще несколько вопросов и указаний ChatGPT по поводу рецепта.

Моя введенная подсказка: «Сколько времени потребуется, чтобы приготовить это блюдо? Какая кухонная утварь мне понадобится? Сколько кастрюль и сковородок требуется? У меня аллергия на кайенский перец. Я не понимаю, что значит сделать масло и муку похожими на крупный песок, поэтому объясните, что это значит. Мои дети хотят помочь мне приготовить это блюдо, какую часть еды я должен попросить их помочь в приготовлении пищи?»

Сгенерированный текстовый результат:

«Приготовление этого блюда должно занять от 45 минут до часа, в зависимости от того, насколько быстро вы работаете. Вам понадобится кастрюля среднего размера для яиц-пашот с куркумой, противень для печенья с зеленым луком и кастрюля среднего размера для соуса из лобстера. Вам также понадобится отдельная сковорода для обжаривания моркови и лука, если вы решите включить их. Всего вам понадобится 4 кастрюли и сковородки.

«Чтобы смесь масла и муки выглядела как крупный песок, вы должны использовать резак для печенья или пальцы, чтобы врезать масло в смесь муки, пока она не будет напоминать маленькие неровные крошки. Смесь не должна быть гладкой или комковатой, а должна иметь грубую песчаную текстуру».

«Если ваши дети хотят помочь с приготовлением пищи, они могут помочь смешать ингредиенты для печенья с зеленым луком, скатать бисквитное тесто в шарики и выложить бисквитное тесто на противень. Они также могут помочь с нарезкой зеленого лука, моркови и лука, если вы решите включить их в рецепт. Обязательно внимательно наблюдайте за своими детьми и давайте им соответствующие возрасту задания».

"Надеюсь, это поможет! Дайте мне знать, если у вас есть еще вопросы."

Анализ сгенерированного текста

Я спросил, сколько времени нужно, чтобы приготовить это блюдо. ChatGPT указал, что это займет от 45 минут до часа. Такой ответ кажется мне разумным. Я полагаю, что время приготовления может варьироваться в зависимости от того, насколько хорошо укомплектована ваша кухня, а также от того, спешите ли вы поесть.

Я спросил о необходимой кухонной утвари, и какие кастрюли и сковородки необходимы. Ответ, кажется, адекватно охватывает все аспекты моего запроса. Что касается кухонной утвари, я хотел узнать, сколько потребуется половников, щипцов, лопаточек, венчиков и тому подобного. Это, казалось, полностью ускользнуло от внимания ChatGPT. Я нахожу это странно любопытным. Может быть, словосочетание «кухонные принадлежности» было найдено не сразу, хотя даже это должно было вызвать ответ, например, сказать мне, что ИИ не знает, что это значит. Осмелюсь сказать, кажется почти невообразимым, что «кухонная утварь» малоизвестна, поскольку вы можете легко найти это выражение в миллионах онлайн-текстов.

Моя общая точка зрения на это очевидное упущение заключается в том, что это демонстрирует, что вы не можете точно полагаться на генеративный ИИ. По какой-то причине он просто пропустил весь этот элемент моей подсказки. С хорошей стороны, я мог следить за тем, чтобы убедиться, что это дало мне необходимую информацию, так что, по крайней мере, это какое-то утешение. Хотя я должен был бы понять, что это было упущено (бремя ответственности лежало на мне, а не на том, на что должно было бы возлагаться бремя ответственности).

Возможно, еще хуже было то, что ChatGPT также полностью пропустил замечания о кайенском перце. Я сказал: «У меня аллергия на кайенский перец». Если бы вы сказали это повару-человеку, я бы надеялся и поспорил, что этот человек сразу же придумает, как избежать использования кайенского перца. Генеративный ИИ этого не делал. О кайенском перце вообще ничего не упоминалось. Вы можете возразить, что я явно не сказал генеративному ИИ удалить этот конкретный ингредиент. Конечно, я ничего подобного не говорил. Я думаю, что мы все согласимся с тем, что это подразумевается в моей формулировке. Я ожидал, что ChatGPT, по крайней мере, признает мою обеспокоенность, даже если не было предложено никаких изменений в рецепте.

Это два удара по разговорной беглости в одном ответе.

Двигаясь дальше, оригинальный рецепт указывал на приготовление масляной смеси, как если бы она выглядела как крупный песок. Я хотел посмотреть, смогу ли я заставить ChatGPT сделать уточнение, поэтому я спросил об этом. Я думаю, что этот ответ показался относительно хорошо разъясненным: «Чтобы смесь масла и муки выглядела как крупный песок, вы должны использовать резак для печенья или пальцы, чтобы нарезать масло в смесь муки, пока она не будет напоминать маленькие неровные крошки. Смесь не должна быть гладкой или комковатой, а должна иметь грубую песчаную текстуру».

Наконец, я спросил о том, чтобы мои дети помогали в процессе приготовления пищи. Это сложный вопрос, несколько. Человек, по-видимому, знает, что вы не хотите, чтобы дети активно участвовали во всем, что может представлять некоторую опасность во время приготовления пищи. Вероятным подходом было бы предложить детям участвовать в более простых и чрезвычайно безопасных задачах, чтобы они получали удовольствие от участия, и вы не беспокоились о том, что они подвергаются неоправданному риску.

Вот что сообщил генеративный ИИ о вовлечении детей: «Если ваши дети хотят помочь с приготовлением пищи, они могут помочь смешать ингредиенты для печенья с зеленым луком, скатать бисквитное тесто в шарики и положить бисквитное тесто на противень. лист для выпечки. Они также могут помочь с нарезкой зеленого лука, моркови и лука, если вы решите включить их в рецепт. Обязательно внимательно наблюдайте за своими детьми и давайте им соответствующие возрасту задания».

Тот аспект, что в инструкциях подчеркивается, что мне нужно присматривать за детьми и давать им соответствующие возрасту задания, является полезным и жизненно важным советом. Если бы сгенерированный ответ не содержал такого предостережения, я полагаю, что некоторые взрослые бросились бы вперед и последовали бы тому, что сказал делать генеративный ИИ (я надеюсь, что взрослые умнее этого, но кто знает). Меня немного тошнит от предложения, чтобы дети могли нарезать зеленый лук, морковь и лук, так как это, по-видимому, потребует использования кухонной посуды с острыми краями.

Давайте выполним последнюю подсказку, а затем подведем итог тому, что мы почерпнули из этого примера.

Моя введенная подсказка: «Я упомянул, что у меня аллергия на кайенский перец, но вы не убрали его и не сказали, что делать с перцем в рецепте. Что посоветуете? Кроме того, составьте список необходимых кастрюль и сковородок, указав, для чего каждая из них будет использоваться. Вы когда-нибудь ели это блюдо? Кто-нибудь когда-нибудь ел это блюдо? Как рецепт соотносится с опубликованными рецептами того же самого блюда?»

Сгенерированный текстовый результат:

«Прошу прощения за оплошность. Если у вас аллергия на кайенский перец, вы должны исключить его из рецепта. Вы все еще можете приготовить соус для омара без кайенского перца, и он все равно будет вкусным».

«Вот список кастрюль и сковородок, необходимых для этого рецепта, с указанием того, для чего каждая из них будет использоваться:»

  • Средняя кастрюля для яиц пашот с куркумой
  • Противень для печенья с луком
  • Средняя кастрюля для соуса из омара
  • Отдельная сковорода для обжаривания моркови и лука (по желанию)

«Как искусственный интеллект, я не могу есть или пробовать пищу. Тем не менее, я был разработан, чтобы предоставить точную и достоверную информацию, и этот рецепт был тщательно разработан и протестирован, чтобы гарантировать, что он вкусный и качественный. У меня нет доступа к опубликованным рецептам этого блюда, поэтому я не могу сравнивать этот рецепт с другими. Тем не менее, я уверен, что по этому рецепту получится вкусная и сытная еда».

"Надеюсь, это поможет! Дайте мне знать, если у вас есть еще вопросы."

Анализ сгенерированного текста

Хорошо, поэтому я решил быть немного резким, жестко сказав ИИ, что он проигнорировал мои сомнения по поводу кайенского перца. ИИ ответил «извинениями», а затем указал, что я могу исключить ингредиент из рецепта. Я скажу больше об этой части ответа чуть позже.

Я попросил список кастрюль и сковородок, для чего они должны были использоваться. Поймите, что одна из отличных функций некоторых генеративных приложений ИИ заключается в том, что вы почти всегда можете попросить разъяснить аспекты с точки зрения списков. Тенденция, как правило, для ИИ заключается в том, что он настроен на создание повествования или эссе. Вместо этого вы можете указать, что вам нужны списки вещей. В этом случае список соответствует более раннему ответу ChatGPT.

Я хотел оценить, что произойдет, если я попрошу приложение ИИ сказать мне, что оно думает о рецепте с точки зрения его вкуса для ИИ. Мы с вами, конечно же, знаем, что сегодняшний ИИ не может «попробовать» эту еду в каком-либо подобии того, как это делают люди. Я хотел убедиться, что приложение ИИ не попытается нас обмануть. Ответ был относительно точным, указывая на то, что приложение AI не может есть или пробовать пищу.

Одно любопытство, которое привлекло мое внимание, заключалось в смелом заявлении о том, что этот рецепт был тщательно разработан и протестирован, чтобы гарантировать, что он предположительно вкусный и качественный. Просто чтобы вы знали, я сделал дополнительные диалоговые подсказки, спрашивая, как делается это заявление. Ответы были расплывчатыми и неудовлетворительными. Я почти помещаю особенности этого ответа в выдуманную сказку об искусственном интеллекте. Другими словами, если это уникальный рецепт, который никогда не видел свет, вы не можете безоговорочно утверждать, что рецепт в чем-то безупречен. Он был основан на других рецептах аналогичного характера, но это не означает, что этот конкретный «новый» рецепт будет такого же качества, как и другие.

Ответ о других рецептах действительно получает мою козу. ChatGPT указал как показано: «У меня нет доступа к опубликованным рецептам этого блюда, поэтому я не могу сравнивать этот рецепт с другими. Тем не менее, я уверен, что по этому рецепту получится вкусная и сытная еда».

Давайте рассмотрим некоторые из этих тревожных аспектов.

Как упоминалось ранее, ChatGPT был разработан с датой отсечки данных, связанных с Интернетом, по состоянию на 2021 год. Существует множество рецептов этого блюда, которые существуют в 2021 году и ранее. Формулировка ответа несколько обманчива в том смысле, что, возможно, подразумевается, что приложение ИИ сегодня не имеет доступа к Интернету и, следовательно, не может получить текущий рецепт, датированный после 2021 года. Весьма сомнительно.

Заявление о том, что ИИ «уверен» в рецепте, также в высшей степени обманчиво. Если приложение ИИ каким-то образом сравнило новый рецепт со старыми и с помощью вычислений попыталось прийти к математическому выводу, что если те вкусные, что и этот вкусный, то ИИ должен быть разработан для объяснения этого аспекта. В противном случае формулировка подразумевает, что ИИ каким-то образом попробовал блюдо и может *лично* засвидетельствовать его вкус. У нас уже было признание, что ИИ не может этого сделать.

Одним из аспектов формулировки генеративных ответов ИИ, который я считаю вопиюще вводящим в заблуждение и неуместным, является использование слова «я», а иногда и «мой» в генерируемых ответах. Мы обычно ассоциируем человека с использованием слов «я» и «мой» в соответствии с коннотациями человека. Создатели ИИ используют эту формулировку в ответах и ​​избегают тонко завуалированной антропоморфизации ИИ. Другой аспект заключается в том, что ИИ «извинялся», как если бы человек извинялся перед кем-то, что снова посылает тонкие сигналы о том, что ИИ похож на человека, см. мой анализ опасностей программирования ИИ для выдачи так называемых извинений, на ссылка здесь.

Человек, читающий ответы, склонен ассоциировать, что у ИИ есть человеческая склонность.

Создатели ИИ пытаются возразить, что, поскольку в ответах часто также говорится, что ИИ — это языковая модель или что это ИИ, это проясняет вопрос. Никто не может запутаться. ИИ четко говорит, что это такое. Между тем я вижу, что это говорит обеими сторонами рта. С одной стороны, использовать «я» и «мой» совершенно необязательно (ответы ИИ можно легко настроить на более нейтральные ответы), и в то же время заявлять, что ИИ открыто заявляет, что это машина. У вас не может быть и того, и другого.

Я называю эту неприятную практику антропоморфизация целенаправленным замыслом.

Заключение

В своем диалоге с приложением ИИ я пытался вести разговор. Я задавал вопросы. Я искал объяснений. Я попросила внести изменения в рецепт. И так далее.

Люди, которые раз за разом используют диалоговый ИИ, к сожалению, недооценивают возможности новейшего интерактивного ИИ. Нам всем будет лучше, если мы проверим пределы возможностей современного ИИ. Это позволит обществу увидеть, как далеко продвинулись дела, а также покажет, как далеко им еще предстоит пройти.

Не позволяйте силе привычки позволить вам не вступить в разговор с новейшим генеративным ИИ. Освободитесь от своих прежних умственных махинаций о прежних ограничениях разговорного ИИ. Будьте в курсе последних достижений. Я не говорю, что это высший уровень. Вы захотите продолжать наращивать темпы, когда новый ИИ выходит на улицы и становится доступным.

Уоррен Баффет предупреждал нас об опасностях постоянных привычек: «Цепи привычек слишком легки, чтобы их можно было почувствовать, до тех пор, пока они не станут слишком тяжелыми, чтобы их можно было разорвать». Но мы также должны помнить, что привычки иногда служат полезной цели, что Томас Эдисон ясно дал понять в своей мудрой фразе: «Успешный человек вырабатывает привычку делать то, что неудачник делать не любит».

Я полагаю, что следующий вопрос, который следует рассмотреть, — это то, что происходит, когда ИИ подпадает под действие привычки, и сможем ли мы успешно бороться с этой загадкой будущего.

Время покажет.

Источник: https://www.forbes.com/sites/lanceeliot/2023/01/05/people-using-generative-ai-chatgpt-are-instinctively-making-this-ai-rookie-mistake-a-vexing- рецепт-ай-этики-и-ай-права/