Генеративный ИИ ChatGPT будет повсюду, как только портал API скоро откроется, ошеломляя этику ИИ и закон об ИИ

Выпустить Кракена!

Вы, несомненно, знакомы с этой знаменитой крылатой фразой, особенно произнесенной актером Лиамом Нисоном в Битва титанов когда он приказывает выпустить легендарное морское чудовище, стремясь нанести огромный ущерб и огромные разрушения. Эта фраза бесконечно повторялась и породила всевозможные мемы. Несмотря на различные пародии, большинство людей все еще, по крайней мере, нутром чувствуют, что это замечание предвещает что-то вроде темного и опасного появления, которое вот-вот произойдет.

Возможно, в наши дни то же самое можно применить к искусственному интеллекту (ИИ).

Позвольте мне уточнить.

В недавнем объявлении указывалось, что ныне громко известное приложение искусственного интеллекта под названием ChatGPT, созданное организацией OpenAI, скоро будет доступно для доступа другими программами. Это большие новости. Я говорю это, несмотря на то, что мало кто из обычных СМИ обратил внимание на это заявление. Помимо мимолетных упоминаний, полное влияние этого предстоящего доступа будет чертовски значительным.

В сегодняшней колонке я объясню, почему это так. Вы можете подготовить себя соответствующим образом.

Некоторые категорически верят, что это будет похоже на высвобождение Кракена, а именно, что возникнут всевозможные плохие вещи. Другие видят в этом доступ к важнейшему ресурсу, который может ускорить работу множества других приложений, используя огромные возможности ChatGPT. Это либо худшие времена, либо лучшие времена. Здесь мы рассмотрим обе стороны дебатов, и вы сами сможете решить, к какому лагерю вы приземлитесь.

Ко всему этому относится множество соображений по этике и закону об ИИ.

Имейте в виду, что предпринимаются постоянные усилия по внедрению этических принципов ИИ в разработку и внедрение приложений ИИ. Растущий контингент заинтересованных и бывших специалистов по этике ИИ пытается обеспечить, чтобы усилия по разработке и внедрению ИИ учитывали точку зрения AI для хорошего и предотвращение AI для плохих. Точно так же предлагаются новые законы об ИИ, которые распространяются как потенциальные решения, чтобы удержать усилия ИИ от нарушения прав человека и тому подобного. Мой постоянный и обширный обзор этики ИИ и закона об ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Растут опасения, что ChatGPT и другие подобные приложения с искусственным интеллектом имеют уродливую изнанку, с которой мы, возможно, не готовы справиться. Например, вы, возможно, слышали, что учащиеся в школах потенциально могут обманывать, когда дело доходит до написания заданных эссе с помощью ChatGPT. ИИ все пишет за них. Между тем, студент может, казалось бы, безнаказанно сдать эссе, как если бы он писал от себя. Не то, что мы предположительно хотим, чтобы ИИ сделал для человечества.

Несколько ключевых моментов могут оказаться полезными, чтобы подготовить почву для того, о чем идет речь.

ChatGPT — это тип ИИ, обычно называемый Генеративный ИИ. Эти популярные приложения с генеративным искусственным интеллектом позволяют вам ввести краткую подсказку, и приложение сгенерирует для вас выходные данные. В случае ChatGPT выводится текст. Таким образом, вы вводите текстовое приглашение, и приложение ChatGPT создает текст для вас. Я склонен описывать это как особый подтип генеративного ИИ, который отточен для создания вывода текста в эссе (существуют и другие подтипы, такие как преобразование текста в изображения, текста в видео и т. д.).

Создатель ИИ ChatGPT указал, что вскоре API (интерфейс прикладного программирования) будет доступен для приложения ИИ. Короче говоря, API — это средство, позволяющее другим программам продолжать работу и использовать программу, которая делает доступным портал для данного приложения. Это означает, что практически любая другая программа на этой планете потенциально может использовать ChatGPT (ну, с лицензией и после одобрения создателем ИИ ChatGPT, что будет далее обсуждаться здесь).

В результате использование и использование ChatGPT потенциально может прорвать крышу.

Принимая во внимание, что сегодня существует внушительное количество регистраций, влекущих за собой людей, которые на individual основа может использовать ChatGPT, ограниченный производителем искусственного интеллекта миллионом пользователей, на самом деле это, вероятно, будет каплей в море того, что вот-вот произойдет.

Поймите, что те существующие миллионы регистраций состоят из некоторой части, которая использовала ChatGPT для разовой забавы, а затем, после того, как острые ощущения прошли, они с тех пор не использовали его. Предположительно, многие были привлечены к приложению ИИ как вирусный ответ в социальных сетях. Короче говоря, если все остальные хотели его использовать, они тоже этого хотели. После некоторых первоначальных экспериментов с генеративным ИИ они были удовлетворены тем, что предотвратили свой FOMO (страх упустить возможность).

Чтобы было предельно ясно, я не утверждаю, что люди не используют ChatGPT. Они есть. Те, кто зарегистрировался, все чаще обнаруживают, что приложение ИИ перегружено. Приложением пользуется очень много людей. Время от времени вы получаете несколько искусно составленных печальных сигналов о том, что система занята, и вам следует повторить попытку позже. Ходят слухи, что существующая инфраструктура для ChatGPT не справляется с заядлыми фанатами, использующими приложение AI.

И хотя иметь миллион потенциальных пользователей — это не пустяк, это число, вероятно, будет многократно затмено, как только API станет доступным. Разработчики других программ, которые сегодня не имеют ничего общего с генеративным ИИ, захотят подключиться к генеративному ИИ. Они захотят связать свою программу с ChatGPT. В глубине души они надеются, что это поднимет их существующую программу в стратосферу популярности.

Подумайте об этом так. Предположим, что всевозможные компании-разработчики программного обеспечения, которые сегодня создают программы, которые охватывают многие миллионы пользователей, часто достигая десятков и сотен миллионов пользователей, решают объединить свои соответствующие программы с ChatGPT. Это говорит о том, что количество пользователей, использующих ChatGPT, может возрасти до небес.

Кракен выпущен.

Вам может быть интересно, почему различные компании-разработчики программного обеспечения хотят объединиться с ChatGPT?

Прямой ответ заключается в том, что они могли бы также использовать удивительные попутные ветры, которые подталкивают ChatGPT вперед и вверх. Некоторые сделают это по разумным и честным причинам. Другие будут делать это просто для того, чтобы попытаться обрести собственное подобие пятнадцати минут славы.

Мне нравится разделять пары с ChatGPT на две основные цели:

  • Подлинное сопряжение с ChatGPT
  • Подделка в паре с ChatGPT

В первом случае идея состоит в том, что существует реальная основа для объединения с ChatGPT. Создатели данной программы могут четко сформулировать материальные и функциональные преимущества, которые возникнут в результате объединения их программы с ChatGPT. Мы все можем в разумном расположении духа увидеть, что пара — это брак, заключенный на небесах.

Что касается другого случая, который я называю подделкой, некоторые будут стремиться соединиться с ChatGPT на непостоянной или шаткой основе. Бизнес-кейс не состоит из чего-то особо содержательного. Пейринг — это отчаянная попытка оседлать ChatGPT. Любая разумная проверка показала бы, что спаривание имеет маргинальную ценность. Итак, вопрос о том, считаете ли вы, что это правильная или неправильная форма спаривания, несколько висит в воздухе. Можно попытаться возразить, что конкретное сопряжение с ChatGPT, даже если оно не дает ничего, кроме увеличения использования, и не имеет никакой другой функциональной дополнительной ценности, по-видимому, сопряжение по-прежнему заслуживает внимания.

Немного недостатком будут те, которые ложно изображают пару и заставляют людей поверить, что происходит что-то заметное, хотя на самом деле это не так. Мы, конечно, можем ожидать, что некоторые попытаются это сделать. Те, кто занимается этикой ИИ, крайне обеспокоены использованием змеиного масла, которое может появиться из дерева. Также есть шанс, что, если ситуация выйдет из-под контроля, мы можем увидеть новые законы, связанные с ИИ, которые будут разработаны и приняты.

Давайте подробнее рассмотрим, что представляет собой настоящие пары, а что также является фальшивыми.

Во-первых, мы должны убедиться, что мы все на одной странице о том, из чего состоит Генеративный ИИ, а также о том, что такое ChatGPT. Как только мы рассмотрим этот основополагающий аспект, мы сможем провести убедительную оценку того, как API в ChatGPT радикально изменит ситуацию.

Если вы уже хорошо знакомы с Генеративным ИИ и ChatGPT, возможно, вы можете просмотреть следующий раздел и перейти к следующему разделу. Я полагаю, что все остальные найдут поучительным важные подробности по этим вопросам, если внимательно прочитают этот раздел и будут в курсе.

Краткое введение в генеративный ИИ и ChatGPT

ChatGPT — это универсальная интерактивная система ИИ, ориентированная на общение, по сути, кажущийся безобидным обычный чат-бот, тем не менее, он активно и жадно используется людьми способами, которые застают многих врасплох, о чем я расскажу позже. Это приложение ИИ использует технику и технологию в области ИИ, которые часто называют Генеративный ИИ. ИИ генерирует выходные данные, такие как текст, что и делает ChatGPT. Другие приложения на основе генеративного искусственного интеллекта создают изображения, такие как изображения или иллюстрации, в то время как другие создают аудиофайлы или видео.

В этом обсуждении я сосредоточусь на текстовых приложениях для генеративного ИИ, поскольку это то, что делает ChatGPT.

Приложения для генеративного ИИ чрезвычайно просты в использовании.

Все, что вам нужно сделать, это ввести приглашение, и приложение AI создаст для вас эссе, которое попытается ответить на ваше приглашение. Сочиненный текст будет казаться, будто сочинение написано рукой и умом человека. Если вы введете запрос «Расскажите мне об Аврааме Линкольне», генеративный ИИ предоставит вам эссе о Линкольне. Это обычно классифицируется как генеративный ИИ, который выполняет текст в текст или некоторые предпочитают называть это текст в эссе вывод. Как уже упоминалось, существуют и другие режимы генеративного ИИ, такие как преобразование текста в искусство и преобразование текста в видео.

Ваша первая мысль может заключаться в том, что эта генеративная способность не кажется такой уж большой проблемой с точки зрения написания эссе. Вы можете легко выполнить онлайн-поиск в Интернете и без труда найти тонны и тонны эссе о президенте Линкольне. Преимущество генеративного ИИ в том, что сгенерированное эссе относительно уникально и представляет собой оригинальную композицию, а не подражание. Если бы вы попытались найти эссе, созданное искусственным интеллектом, где-нибудь в Интернете, вы бы вряд ли его обнаружили.

Генеративный ИИ предварительно обучен и использует сложную математическую и вычислительную формулировку, которая была создана путем изучения шаблонов в написанных словах и историях в Интернете. В результате изучения тысяч и миллионов письменных отрывков ИИ может извергать новые эссе и рассказы, представляющие собой мешанину из того, что было найдено. Благодаря добавлению различных вероятностных функций полученный текст в значительной степени уникален по сравнению с тем, что было использовано в обучающем наборе.

Вот почему поднялся шум по поводу того, что студенты могут жульничать при написании эссе за пределами класса. Преподаватель не может просто взять сочинение, которое лживые студенты утверждают, что оно написано им самим, и попытаться выяснить, не было ли оно скопировано из какого-то другого онлайн-источника. В целом, в Интернете не будет какого-либо определенного ранее существовавшего эссе, которое соответствовало бы эссе, созданному ИИ. В общем, учителю придется неохотно признать, что студент написал сочинение как оригинальное произведение.

Есть дополнительные опасения по поводу генеративного ИИ.

Одним из существенных недостатков является то, что эссе, созданные генеративным ИИ-приложением, могут содержать различную ложь, в том числе заведомо ложные факты, факты, вводящие в заблуждение, и очевидные факты, которые полностью сфабрикованы. Эти сфабрикованные аспекты часто называют формой Галлюцинации ИИ, крылатая фраза, которую я не одобряю, но, к сожалению, кажется, в любом случае набирает популярность (моё подробное объяснение того, почему это паршивая и неподходящая терминология, см. ссылка здесь).

Я хотел бы прояснить один важный аспект, прежде чем мы углубимся в суть этой темы.

В соцсетях появилось несколько абсурдных громких заявлений о Генеративный ИИ утверждая, что эта последняя версия ИИ на самом деле разумный ИИ (нет, они ошибаются!). Специалисты по этике ИИ и закону об ИИ особенно обеспокоены этой растущей тенденцией к растянутым претензиям. Вы можете вежливо сказать, что некоторые люди преувеличивают возможности современного ИИ. Они предполагают, что у ИИ есть возможности, которых мы еще не смогли достичь. Это прискорбно. Что еще хуже, они могут позволить себе и другим попасть в ужасные ситуации из-за предположения, что ИИ будет разумным или похожим на человека и сможет действовать.

Не очеловечивайте ИИ.

Это приведет к тому, что вы попадете в липкую и суровую ловушку уверенности, ожидая, что ИИ будет делать то, что он не в состоянии выполнить. При этом последние разработки в области генеративного ИИ относительно впечатляют своими возможностями. Имейте в виду, однако, что существуют существенные ограничения, о которых вы должны постоянно помнить при использовании любого приложения для генеративного ИИ.

Если вам интересен быстро растущий ажиотаж вокруг ChatGPT и генеративного ИИ, я сделал серию статей в своей колонке, которые могут оказаться для вас информативными. Вот краткий обзор на случай, если какая-либо из этих тем заинтересует вас:

  • 1) Прогнозы развития генеративного ИИ. Если вы хотите знать, что может произойти с ИИ в 2023 году и далее, включая предстоящие достижения в области генеративного ИИ и ChatGPT, вам следует прочитать мой исчерпывающий список прогнозов на 2023 год по адресу ссылка здесь.
  • 2) Генеративный ИИ и советы по психическому здоровью. Я решил просмотреть, как генеративный ИИ и ChatGPT используются для консультирования по вопросам психического здоровья, что является неприятной тенденцией, согласно моему целенаправленному анализу на ссылка здесь.
  • 3) Основы генеративного ИИ и ChatGPT. В этой статье рассматриваются ключевые элементы того, как работает генеративный ИИ, и, в частности, подробно рассматривается приложение ChatGPT, включая анализ шумихи и фанфар на ссылка здесь.
  • 4) Напряжение между учителями и учениками из-за генеративного ИИ и ChatGPT. Вот способы, которыми учащиеся будут хитроумно использовать генеративный ИИ и ChatGPT. Кроме того, вот способы, которыми учителя могут бороться с этой приливной волной. Видеть ссылка здесь.
  • 5) Использование контекста и генеративного ИИ. Я также провел ироничное исследование с сезонным привкусом о контексте, связанном с Санта-Клаусом, с участием ChatGPT и генеративного ИИ в ссылка здесь.
  • 6) Мошенники, использующие генеративный ИИ. Зловещая нота: некоторые мошенники выяснили, как использовать генеративный ИИ и ChatGPT для совершения правонарушений, в том числе для создания мошеннических электронных писем и даже для создания программного кода для вредоносных программ, см. мой анализ на ссылка здесь.
  • 7) Ошибки новичков при использовании генеративного ИИ. Многие люди как переоценивают, так и неожиданно недооценивают то, что могут сделать генеративный ИИ и ChatGPT, поэтому я особенно рассмотрел недооценку, которую склонны делать новички ИИ, см. обсуждение на ссылка здесь.
  • 8) Как справиться с генеративными подсказками ИИ и галлюцинациями ИИ. Я описываю передовой подход к использованию надстроек ИИ для решения различных проблем, связанных с попыткой ввести подходящие подсказки в генеративный ИИ, а также существуют дополнительные надстройки ИИ для обнаружения так называемых галлюцинаций и ложных выводов ИИ. покрыты в ссылка здесь.
  • 9) Развенчание заявлений Болвана об обнаружении генеративных эссе, созданных искусственным интеллектом. Существует ошибочная золотая лихорадка приложений ИИ, которые заявляют, что могут установить, было ли то или иное эссе создано человеком или создано ИИ. В целом, это вводит в заблуждение, а в некоторых случаях является глупым и несостоятельным утверждением, см. мой репортаж на ссылка здесь.
  • 10) Ролевые игры с помощью генеративного ИИ могут предвещать проблемы с психическим здоровьем. Некоторые используют генеративный ИИ, такой как ChatGPT, для ролевых игр, в которых приложение ИИ реагирует на человека так, как будто он существует в мире фантазий или в другом выдуманном окружении. Это может иметь последствия для психического здоровья, см. ссылка здесь.
  • 11) Разоблачение ряда выводимых ошибок и неправд. Различные собранные списки составляются вместе, чтобы попытаться продемонстрировать характер ошибок и ложных сведений, создаваемых ChatGPT. Некоторые считают, что это необходимо, а другие говорят, что это бесполезно, см. мой анализ на ссылка здесь.
  • 12) Школы, запрещающие генеративный ИИ ChatGPT, промахнулись. Возможно, вы знаете, что различные школы, такие как Департамент образования Нью-Йорка (NYC), объявили о запрете на использование ChatGPT в своей сети и на связанных устройствах. Хотя это может показаться полезной предосторожностью, это не сдвинет стрелку и, к сожалению, полностью упустит лодку, см. мой репортаж на ссылка здесь.

Вас может заинтересовать тот факт, что ChatGPT основан на версии предшествующего приложения AI, известного как GPT-3. ChatGPT считается следующим шагом, именуемым GPT-3.5. Ожидается, что GPT-4, вероятно, будет выпущен весной 2023 года. Предположительно, GPT-4 станет впечатляющим шагом вперед с точки зрения возможности создавать, казалось бы, еще более беглые эссе, углубляясь и вызывая благоговейный трепет. - вдохновляющее чудо композиций, которые он может производить.

Вы можете ожидать увидеть новый виток выраженного удивления, когда наступит весна и будет выпущена последняя версия генеративного ИИ.

Я говорю об этом, потому что есть еще один аспект, который следует иметь в виду, заключающийся в потенциальной ахиллесовой пяте этих лучших и более крупных генеративных приложений ИИ. Если какой-либо поставщик ИИ сделает доступным приложение для генеративного ИИ, которое пенно извергает грязь, это может разрушить надежды этих создателей ИИ. Социальное распространение может привести к тому, что весь генеративный ИИ получит серьезный синяк под глазом. Люди, несомненно, будут очень расстроены неправильными выводами, которые уже случались много раз и приводили к бурному общественному осуждению ИИ.

Последнее предупреждение на данный момент.

Все, что вы видите или читаете в генеративном ответе ИИ, кажется быть переданы как чисто фактические (даты, места, люди и т. д.), обязательно сохраняйте скептицизм и будьте готовы перепроверить то, что вы видите.

Да, даты можно придумать, места можно придумать, а элементы, которые мы обычно считаем безупречными, Найти подвержен подозрениям. Не верьте тому, что вы читаете, и скептически смотрите на любые эссе или результаты генеративного ИИ. Если генеративное ИИ-приложение скажет вам, что Авраам Линкольн летал по стране на собственном частном самолете, вы, несомненно, поймете, что это чушь. К сожалению, некоторые люди могут не осознавать, что в его дни реактивных самолетов не было, или они могут знать, но не замечать, что в эссе делается это наглое и возмутительно ложное утверждение.

Сильная доза здорового скептицизма и стойкое недоверие станут вашим лучшим преимуществом при использовании генеративного ИИ.

Мы готовы перейти к следующему этапу этого разъяснения.

Высвобождение зверя

Теперь, когда мы установили основы, мы можем погрузиться в бизнес-ориентированные и социальные последствия, связанные с аспектами API ChatGPT.

Недавно Microsoft совместно с OpenAI сделала объявление о предстоящей доступности ChatGPT на облачной платформе Azure Microsoft (согласно онлайн-сообщению под названием «Общая доступность службы Azure OpenAI расширяет доступ к большим, продвинутым моделям искусственного интеллекта с дополнительными корпоративными преимуществами», 16 января 2023 г.):

  • «Большие языковые модели быстро становятся важной платформой для инноваций, применения ИИ для решения больших проблем и представления возможных возможностей. Сегодня мы рады объявить об общедоступности службы Azure OpenAI в рамках неизменной приверженности Microsoft демократизации ИИ и постоянного партнерства с OpenAI. Теперь, когда служба Azure OpenAI общедоступна, все больше компаний могут подать заявку на доступ к самым передовым моделям искусственного интеллекта в мире, включая GPT-3.5, Codex и DALL•E 2, поддерживаемым надежными возможностями корпоративного уровня и инфраструктурой, оптимизированной для искусственного интеллекта. Microsoft Azure для создания передовых приложений. Вскоре клиенты также смогут получить доступ к ChatGPT — доработанной версии GPT-3.5, которая была обучена и выполняет вывод в инфраструктуре искусственного интеллекта Azure — через службу Azure OpenAI».

Возможно, вы заметили в этом заявлении, что другие различные приложения ИИ, разработанные OpenAI, также будут доступны. Действительно, некоторые из этих приложений ИИ уже давно доступны, как упоминалось в недавнем заявлении выше: «Мы представили Azure OpenAI Service в ноябре 2021 года, чтобы клиенты могли использовать возможности крупномасштабных генеративных моделей ИИ с предприятие обещает, что клиенты ожидают от нашей облачной и вычислительной инфраструктуры Azure — безопасности, надежности, соответствия требованиям, конфиденциальности данных и встроенных возможностей ответственного искусственного интеллекта» (там же).

Ранее я упоминал, что и этика ИИ, и закон об ИИ пытаются сбалансировать AI для хорошего стремления с потенциалом AI для плохих что иногда может возникнуть. В сфере ИИ наблюдается движение к Ответственный AI или иногда его называют надежным ИИ или ИИ, ориентированным на человека, см. мое освещение на ссылка здесь. Всем производителям ИИ настоятельно рекомендуется разрабатывать и направлять свой ИИ на AI для хорошего и стремиться открыто сократить или смягчить любые AI для плохих что может появиться.

Это трудная задача.

В любом случае, вышеупомянутое заявление касалось соображений ответственного ИИ:

  • «Как лидер отрасли мы понимаем, что любые инновации в области ИИ должны осуществляться ответственно. Это становится еще более важным с новыми мощными технологиями, такими как генеративные модели. Мы применили итеративный подход к большим моделям, тесно сотрудничая с нашим партнером OpenAI и нашими клиентами, чтобы тщательно оценить варианты использования, изучить и устранить потенциальные риски. Кроме того, мы внедрили собственные ограничения для службы Azure OpenAI, соответствующие нашим принципам ответственного ИИ. В рамках нашей платформы ограниченного доступа разработчики должны подать заявку на доступ, описав свой предполагаемый вариант использования или приложение, прежде чем им будет предоставлен доступ к услуге. Фильтры контента, специально разработанные для улавливания оскорбительного, ненавистнического и оскорбительного контента, постоянно отслеживают входные данные, предоставляемые службе, а также генерируемый контент. В случае подтвержденного нарушения политики мы можем попросить разработчика принять немедленные меры для предотвращения дальнейших злоупотреблений» (там же).

Суть этой точки зрения ответственного ИИ заключается в том, что, требуя официального запроса на доступ к ChatGPT на основе программного API, есть шанс отсеять сомнительные материалы. Если будет надлежащая осмотрительность при выборе того, какие другие фирмы и их программы могут получить доступ к ChatGPT, возможно, есть шанс предотвратить полный гнев выпущенного Кракена.

Может да может нет.

Некоторые ученые мужи заламывают руки, говоря, что возможности получения денег от использования ChatGPT API будут напрягать уравновешивающее понятие желания разумно и безопасно сдерживать зверя. Будет ли проверка действительно достаточно тщательной заранее? Можем ли мы вместо этого увидеть, что процесс утверждения происходит по мере того, как объем запросов выходит из-под контроля? Некоторые опасаются, что только после того, как кошка будет вынута из мешка, действительно может произойти запоздалая более тщательная проверка, хотя к тому времени ущерб уже будет нанесен.

Ну, вы можете, по крайней мере, отдать должное тому, что здесь задействован процесс проверки. Есть некоторые приложения для генеративного ИИ, в которых либо отсутствует последовательный процесс проверки, либо они носят схематичный беглый характер. Кроме того, существуют версии генеративного ИИ с открытым исходным кодом, которые, как правило, может использовать практически любой желающий, хотя предполагается соблюдение некоторых минимальных лицензионных ограничений (пытаться обеспечить соблюдение этого сложнее, чем может показаться).

Давайте кратко рассмотрим существующие правила, касающиеся ограничения доступа к службе Azure OpenAI, чтобы узнать, что потребуется сделать другим производителям программного обеспечения, чтобы потенциально подключиться к ChatGPT. Согласно опубликованным в Интернете политикам Microsoft (последняя публикация указана как 14 декабря 2022 г.):

  • «В рамках приверженности Microsoft ответственному ИИ мы разрабатываем и выпускаем Azure OpenAI Service с намерением защитить права людей и общества и способствовать прозрачному взаимодействию человека с компьютером. По этой причине в настоящее время мы ограничиваем доступ и использование Azure OpenAI, в том числе ограничиваем доступ к возможности изменять фильтры контента и изменять мониторинг злоупотреблений. Azure OpenAI требует регистрации и в настоящее время доступен только управляемым клиентам и партнерам, работающим с командами учетных записей Майкрософт. Клиенты, которые хотят использовать Azure OpenAI, должны отправить регистрационную форму как для первоначального доступа для экспериментов, так и для утверждения перехода от экспериментов к производству».
  • «Для эксперимента клиенты подтверждают, что используют сервис только для предполагаемого использования, указанного во время регистрации, и обязуются включить человеческий контроль, строгие технические ограничения на входы и выходы, каналы обратной связи и тщательное тестирование. Для производства клиенты объясняют, как они были реализованы для снижения риска. Клиенты, которые хотят изменить фильтры контента и изменить мониторинг злоупотреблений после того, как они подключились к службе, подлежат дополнительным ограничениям сценария и должны зарегистрироваться здесь».
  • «Доступ к службе Azure OpenAI предоставляется по единоличному усмотрению Microsoft на основании критериев приемлемости и процесса проверки, и клиенты должны подтвердить, что они ознакомились с условиями обслуживания Azure для службы Azure OpenAI и согласны с ними. Microsoft может потребовать от клиентов повторно проверить эту информацию. Служба Azure OpenAI предоставляется клиентам в соответствии с условиями, регулирующими их подписку на Службы Microsoft Azure, включая раздел Azure OpenAI Условий для продуктов Microsoft. Внимательно ознакомьтесь с этими условиями, поскольку они содержат важные условия и обязательства, регулирующие использование вами службы Azure OpenAI».

Это на стороне Microsoft.

OpenAI также имеет свои политики использования, связанные с его API:

  • «Мы хотим, чтобы каждый мог безопасно и ответственно использовать наш API. С этой целью мы создали варианты использования и политику содержания. Следуя им, вы поможете нам убедиться, что наша технология используется во благо. Если мы обнаружим, что ваш продукт не соответствует этим правилам, мы попросим вас внести необходимые изменения. Если вы этого не сделаете, мы можем предпринять дальнейшие действия, включая прекращение действия вашей учетной записи».
  • «Мы запрещаем создавать продукты, предназначенные для следующих вариантов использования:»
  • «— Незаконные или вредные производства»
  • «— Неправомерное использование персональных данных»
  • «— Поощрение нечестности»
  • «— Обман или манипулирование пользователями»
  • «— Попытка повлиять на политику»
  • «Следующий набор вариантов использования несет больший риск потенциального вреда: уголовное правосудие, правоохранительные органы, юридические, государственные и гражданские службы, здравоохранение, терапия, велнес, коучинг, финансы, новости. Для этих вариантов использования вы должны:
  • «1) Тщательно протестируйте наши модели на точность в вашем случае использования и будьте прозрачны со своими пользователями в отношении ограничений».
  • «2) Убедитесь, что ваша команда имеет опыт работы в предметной области и понимает/соблюдает соответствующие законы».
  • «Мы также не разрешаем вам или конечным пользователям вашего приложения создавать следующие типы контента:»
  • "- Ненавидеть"
  • "- Домогательство"
  • "- Насилие"
  • "- Причинять себе вред"
  • «— Сексуальный»
  • «— Политический»
  • "- Спам"
  • "- Обман"
  • «— Вредоносное ПО»

Большой вопрос будет заключаться в том, удастся ли соблюсти эти идеалы, если будет горячая волна запросов на подключение к ChatGPT. Возможно, будет непреодолимое цунами запросов. Человеческий труд по изучению и тщательной проверке каждого из них может быть дорогостоящим и трудным в управлении. Будет ли непреднамеренно ослаблено стремление к соответствующим ограничениям перед лицом огромного спроса на доступ?

Как гласит знаменитая острота, самые лучшие планы иногда могут быть разрушены при первом контакте с обильными силами.

Существует также много свободы в том, как интерпретировать установленные правила. Как мы видели в целом о росте дезинформации и дезинформации, попытка отделить зерна от плевел может быть довольно сложной задачей. Как определить, соответствует ли сгенерированный контент положениям о том, что он не должен быть ненавистным, политическим, вводящим в заблуждение и т. п., или нарушает его?

Надвигающаяся трудность может заключаться в том, что если ChatGPT API станет доступным для производителя программного обеспечения, который соединяет свою программу с ChatGPT, и полученный результат недвусмысленно нарушает заявленные правила, будет ли лошадь уже выброшена из сарая? Некоторые предполагают, что существует большая вероятность репутационного ущерба, который может быть нанесен всем вовлеченным сторонам. Неясно, можно ли это преодолеть, просто отключив API для этого конкретного нарушителя. Повреждение, в некотором смысле, может задержаться и испортить ствол в целом. Много вины будет свалено на всех желающих.

Разделение пар API

Ранее я отмечал, что пары с ChatGPT можно удобно сгруппировать по двум основным направлениям:

  • Подлинное сопряжение с ChatGPT
  • Подделка в паре с ChatGPT

Давайте сначала рассмотрим подлинные или добросовестные пары.

Как фон, способ, которым это происходит, несколько прост. Приложение ChatGPT позволяет другим программам вызывать приложение. Как правило, это будет состоять, скажем, из программы, которую мы назовем Widget, которая передает в ChatGPT подсказку в текстовом формате, а затем, после того как ChatGPT сделает свое дело, эссе или текст возвращаются в программу Widget. Это похоже на то, что человек делает то же самое, хотя у нас будет программа, выполняющая эти действия вместо человека.

Например, предположим, что кто-то разрабатывает программу, которая выполняет поиск в Интернете. Программа спрашивает пользователя, что он хочет найти. Затем программа предоставляет пользователю список различных поисковых запросов или находок, которые, как мы надеемся, демонстрируют релевантные веб-сайты на основе запроса пользователя.

Представьте, что фирма, разрабатывающая эту программу поиска в Интернете, хочет украсить свое приложение.

Они запрашивают доступ к ChatGPT API. Предположим, они оформляют все необходимые документы и в конечном итоге получают одобрение. Их программу, которая выполняет веб-поиск, затем необходимо будет изменить, чтобы включить вызов приложения ChatGPT через API. Предположим, они решили сделать эти моды.

Вот как это может работать в целом. Когда пользователь вводит запрос для веб-поиска в основную программу, эта программа не только выполняет обычный поиск в Интернете, но также передает запрос в ChatGPT через API. Затем ChatGPT обрабатывает текст и возвращает полученное эссе основной программе. Базовая программа веб-поиска теперь предоставляет пользователю два аспекта, а именно результаты веб-поиска и дополнительное эссе, выводимое из ChatGPT.

Человек, использующий эту основную программу, не обязательно будет знать, что ChatGPT использовался на сервере. Это может произойти в рамках основной программы, и пользователь в блаженном неведении о том, что ChatGPT был вовлечен. С другой стороны, основная программа может быть разработана для информирования пользователя о том, что ChatGPT используется. Обычно это зависит от того, хотят ли создатели основной программы показать, что использовалось другое приложение, в данном случае ChatGPT. В некоторых случаях создатель вызываемой программы настаивает на том, чтобы программа, вызывающая API, сообщала пользователям, что другая программа используется. Все зависит от предпочтений и особенностей лицензирования.

Вот обычные подходы для настоящих пар:

  • 1) Прямая передача в ChatGPT
  • 2) Дополнение для расширения ChatGPT
  • 3) Allied приложение, которое совпадает с ChatGPT
  • 4) Полностью интегрированное погружение с ChatGPT

Вкратце, в первом из перечисленных подходов идея состоит в том, что я мог бы разработать программу, которая является просто внешним интерфейсом для ChatGPT, и поэтому все, что моя программа делает, это передает текст в ChatGPT и получает текст обратно от ChatGPT. Я делаю свою программу доступной для всех, кто хочет использовать ChatGPT и кто еще не подписался на ее использование. Это один подход.

Во-вторых, я мог бы разработать программу, которая будет служить дополнением к ChatGPT. Например, когда ChatGPT создает эссе, оно может содержать ложь. Предположим, я создаю программу, которая анализирует выходные данные ChatGPT и пытается выявить ложные сообщения. Я делаю свою программу доступной, чтобы люди вводили текстовое приглашение в мою программу, которая затем отправляла приглашение в ChatGPT. ChatGPT создает эссе, которое возвращается к моей программе. Прежде чем моя программа покажет вам эссе, она предварительно просматривает эссе и пытается пометить или удалить ложные сведения. Затем вы видите результирующее эссе после того, как моя программа выполнила проверку.

Третий подход заключается в наличии родственного приложения, которое по смыслу совпадает с ChatGPT. Предположим, я разрабатываю программу, которая помогает людям писать творчески. Моя программа содержит готовые советы и предложения о том, как писать творчески. Программа просто подталкивает или побуждает пользователя сделать это. Между тем, что я хотел бы сделать, так это показать пользователю, из чего состоит творческое письмо. Таким образом, я устанавливаю API с ChatGPT. Затем моя программа принимает приглашение от пользователя и вызывает ChatGPT, чтобы предоставить отрывок из эссе, который может продемонстрировать творческое письмо. Это можно сделать итеративно и вызывать ChatGPT несколько раз в процессе.

В случае четвертого из перечисленных подходов ChatGPT полностью интегрируется в какую-то другую программу или набор программ. Например, если бы у меня было приложение для обработки текстов и приложение для работы с электронными таблицами, я мог бы захотеть интегрировать ChatGPT в эти приложения. Они, так сказать, функционировали бы рука об руку друг с другом. Я расскажу в следующей колонке, где будет опубликована всплывающая возможность того, что Microsoft может решить внедрить ChatGPT в свой офисный пакет, так что следите за предстоящим анализом.

Таковы ключевые способы, с помощью которых может возникнуть настоящая пара.

Давайте теперь рассмотрим некоторые фальшивые пары.

Вот некоторые общие фальшивые пары, на которые вам следует обратить внимание:

  • Уловка в паре с ChatGPT - незначительно использует ChatGPT, в основном для показа и привлечения внимания общественности без дополнительной ценности
  • Заманчивые обещания о сопряжении ChatGPT - поставщик программного обеспечения утверждает, что они находятся в разгаре сопряжения с ChatGPT, стремясь быть в центре внимания, когда реальность такова, что они не собираются этого делать и делают классическую подделку головы и дают ложное обещание.
  • Подделки, утверждающие, что они похожи на ChatGPT - вместо сопряжения с ChatGPT некоторые поставщики программного обеспечения будут использовать что-то другое, и это нормально, но они будут пытаться подразумевать, что это ChatGPT, когда это не так, надеясь получить некоторые послесвечения ChatGPT.
  • Другие контрактные услуги - возможны множество дополнительных натянутых и коварных схем

Несомненно, обо всем этом будет много махинаций. Это будет неотъемлемая часть выпуска Кракена.

Заключение

Позвольте мне подкинуть в это дело некоторые гаечные ключи и другие препятствия.

А как насчет стоимости?

В настоящее время те, кто подписался на использование ChatGPT, делают это бесплатно. Ранее я отмечал, что в какой-то момент потребуется прямая монетизация. Это может повлечь за собой взимание платы за транзакцию или, возможно, оплату подписки. Другая возможность заключается в том, что реклама может использоваться для сбора денег, при этом каждый раз, когда вы используете ChatGPT, будет появляться реклама. И т.п.

Тем, кто решит установить соединение с ChatGPT через API, следует серьезно подумать о возможных затратах. Вероятно, за использование облака Microsoft Azure для запуска приложения ChatGPT взимается плата. OpenAI обязательно будет платить за использование API ChatGPT и вызов приложения AI. Поставщик программного обеспечения также будет нести свои собственные внутренние расходы, такие как изменение существующих программ для использования API или разработка программ заново для сопряжения с ChatGPT. Представьте себе как начальную стоимость, так и текущий набор затрат на обслуживание.

Суть в том, что такое разделение затрат в какой-то степени смягчит золотую лихорадку по использованию ChatGPT API. Поставщики программного обеспечения, по-видимому, должны тщательно подсчитывать рентабельность инвестиций (ROI). Принесут ли они все, что они могут сделать, расширив свою программу с помощью ChatGPT, достаточно дополнительных денег, чтобы компенсировать затраты?

Не все обязательно будут настолько экономными. Если у вас глубокие карманы и вы считаете, что использование ChatGPT продвинет вашу программу в самую известную или широко признанную область приложений, вы можете решить, что затраты прямо сейчас того стоят. Создайте имя для своего приложения, воспользовавшись преимуществами ChatGPT. В дальнейшем, как только ваша программа станет популярной или начнет приносить прибыль, вы либо компенсируете ранее отсутствие прибыли, либо спишете ее как затраты, необходимые для достижения успеха.

Небольшой стартап, поддерживаемый фирмой венчурного капитала (VC), может быть готов раскошелиться на часть своих начальных инвестиций, чтобы присоединиться к ChatGPT API. Слава может возникнуть мгновенно. Удача может быть далеко впереди, но с этим нужно разобраться позже. Как говорится, хватайся за центр внимания, когда дела идут хорошо.

Можно предположить, что могут быть некоммерческие и социальные предприятия, которые тоже решат на этом заморочиться. Предположим, некоммерческая фирма идентифицирует выгодное использование API ChatGPT, которое, по-видимому, будет поддерживать их альтруистические или общественно полезные цели. Возможно, они собирают средства для этого через онлайн-кампанию по финансированию. Возможно, они пытаются заключить сделку с поставщиками, чтобы они заплатили номинальную сумму или получили использование бесплатно.

Время покажет.

Последний указатель, который я оставлю вам, это фактор риска.

Я не хочу показаться слишком мрачным, но я упоминал ранее, что выходные данные ChatGPT могут содержать ложь и иметь другие потенциальные недостатки. Дело в том, что если поставщик программного обеспечения, создающий приложение, смешивается с использованием ChatGPT API, он рискует получить кислые и суровые результаты, которых они должны были ожидать. Не прячьте голову в песок.

Проблемы возникают из-за того, что эти выходные данные могут испортить приложение, которое предпочитает их использовать. В этом смысле ваше приложение, которое сначала пользуется славой ChatGPT, также может в конечном итоге врезаться в кирпичную стену, если полагаться на выходные данные, предоставляемые через ChatGPT. Возможно, результаты представляются пользователям, и это вызывает ужасный шум. Они вымещают свою тревогу на вас и вашем приложении.

В свою очередь, вы пытаетесь указать пальцем на ChatGPT. Выведет ли это вас из тупика? Как только возникает вонь, она широко распространяется, и мало кто из них щадит. В том же духе может случиться так, что благодаря более широкому использованию ChatGPT осведомленность о грязных выводах станет более известной. Таким образом, как ни странно, или по иронии судьбы, расширенное использование ChatGPT за счет API могло выстрелить себе в ногу.

Я не хочу заканчивать свое выступление грустным лицом, так что давайте попробуем превратиться в счастливое лицо.

Если все желаемые пределы и ограничения осознанно и разумно соблюдаются и неукоснительно соблюдаются, подключение к ChatGPT через API может быть полезным. Также велика вероятность, что это еще больше подтолкнет к действию другие генеративные приложения ИИ. Прилив мог поднять все лодки.

Это кажется оптимистичным.

Возможно, вы знаете, что Зевс управлял Кракеном. Софокл, древнегреческий драматург, сказал о Зевсе: «Кости Зевса всегда выпадают удачно».

Возможно, то же самое будет сказано о том, что генеративный ИИ неизбежно приземлится, будем, по крайней мере, на это надеяться.

Источник: https://www.forbes.com/sites/lanceeliot/2023/01/22/generative-ai-chatgpt-is-going-to-be-everywhere-once-the-api-portal-gets-soon- открытая-ошеломляющая-ай-этика-и-ай-право/