Разбираемся в шумихе и фанфарах по поводу генеративного ИИ ChatGPT, включая надвигающиеся вопросы этики и законодательства в области ИИ

Я предполагаю, что вы уже слышали или, возможно, видели кричащие заголовки новостей или публикации в социальных сетях, рекламирующие самое горячее и новейшее использование ИИ, который генерирует, казалось бы, написанные человеком текстовые повествования с помощью приложения ИИ, известного как ChatGPT.

Если вы не слышали или не читали об этом новом приложении ИИ, не волнуйтесь, я буду вводить вас в курс дела.

Для тех из вас, кто уже знаком с ChatGPT, могут быть очень интересны некоторые из моих здесь инсайдерских сенсаций о том, что он делает, как он работает и на что следует обращать внимание. В общем, почти каждый, кого волнует будущее, неизбежно захочет узнать, почему все так взволнованы этим приложением ИИ.

Чтобы уточнить, безудержные прогнозы заключаются в том, что этот тип ИИ изменит жизнь, в том числе жизнь тех, кто еще ничего не знает о ChatGPT или любых других подобных возможностях ИИ. Как я сейчас объясню, эти приложения ИИ будут иметь довольно широкое влияние, которое мы только начинаем предвидеть.

Приготовьтесь к поездке на американских горках, известной как Генеративный ИИ.

Я начну с некоторых основных сведений о генеративном ИИ и использую самый простой сценарий, в котором ИИ создает искусство. Познакомив вас с этой основой, мы перейдем к генеративному ИИ, который генерирует текстовые повествования.

Мой постоянный и обширный обзор ИИ в целом, включая этику ИИ и закон об ИИ, см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Генеративный ИИ, создающий сгенерированное искусство

Я называю этот тип или стиль ИИ генеративный это терминология поклонников ИИ, используемая для описания ИИ, который генерирует выходные данные, такие как текст, изображения, видео и тому подобное.

Возможно, вы заметили ранее в этом году, что было много споров о возможности генерировать вычурные изображения путем ввода одной или двух строк текста. Идея довольно проста. Вы используете приложение AI, которое позволяет вам вводить текст по вашему выбору. Например, вы можете ввести, что хотите увидеть, как будет выглядеть лягушка в шляпе на дымоходе. Затем приложение AI анализирует ваши слова и пытается создать изображение, которое в целом соответствует указанным вами словам. Людям очень понравилось создавать всевозможные изображения. Соцсети на какое-то время были забиты ими.

Как генеративный ИИ выполняет аспекты генерации?

В случае с генеративным искусственным интеллектом, преобразующим текст в искусство, множество онлайн-произведений искусства предварительно сканировалось с помощью компьютерных алгоритмов, а элементы отсканированного изображения подвергались компьютерному анализу на наличие задействованных компонентов. Представьте онлайн-изображение с изображением лягушки. Представьте еще одно отдельное изображение с дымоходом. Еще на одной картинке изображена шляпа. Эти компоненты идентифицируются с помощью вычислений, иногда без помощи человека, а иногда под руководством человека, а затем формулируется своего рода математическая сеть.

Когда вы приходите позже и просите сгенерировать произведение искусства с изображением лягушки в шляпе на дымоходе, приложение ИИ использует математическую сеть, чтобы найти и собрать воедино эти элементы. Результирующее художественное изображение может или не может получиться так, как вы надеялись. Возможно, лягушка уродливая. Шляпа может быть большой шляпой-дымоходом, но вы хотели более тонкую шляпу в стиле дерби. Между тем, изображение лягушки стоит на дымоходе, хотя вы стремились вместо этого усадить лягушку.

Отличительной особенностью таких приложений ИИ является то, что они обычно позволяют вам повторить ваш запрос, а также добавить дополнительные спецификации, если вы хотите это сделать. Таким образом, вы можете повторить свой запрос и указать, что хотите красивую лягушку в шляпе дерби, которая сидит на дымоходе. Вуаля, вновь сгенерированное изображение может быть ближе к тому, что вы хотели.

Некоторые задавались вопросом, не извергает ли ИИ именно то, на чем он был обучен. Ответ - нет (обычно). Изображение лягушки, которое ИИ демонстрирует по вашему запросу, не обязательно является точной копией похожего изображения, которое было в обучающем наборе. Большинство из этих приложений для генеративного ИИ настроены на то, чтобы обобщать любые изображения, которые они изначально находят. Подумайте об этом так. Предположим, вы собрали тысячу изображений лягушек. Вы можете постепенно выяснить, как выглядит лягушка, собрав воедино тысячи изображений, которые вы нашли. Таким образом, лягушка, которую вы в конечном итоге нарисуете, не обязательно точно такая же, как та, которую вы использовали для обучения.

При этом есть вероятность, что алгоритм ИИ может не делать столько обобщений, как можно было бы предположить. Если есть уникальные тренировочные изображения и нет других подобных, возможно, ИИ «обобщает» довольно близко к единственному конкретному экземпляру, который он получил. В этом случае попытка алгоритма позже создать запрошенное изображение такого рода может выглядеть очень похоже на то, что было в обучающем наборе.

Я прервусь на мгновение, чтобы высказать некоторые мысли, связанные с этикой ИИ и законом об ИИ.

Как уже упоминалось, если генеративный ИИ обучается в Интернете, это означает, что все, что было опубликовано публично в Интернете, возможно, будет использоваться алгоритмом ИИ. Предположим, что у вас есть отличное произведение искусства, над которым вы работали, и вы считаете, что владеете правами на это произведение искусства. Вы выкладываете фото в сеть. Предполагается, что любой, кто хочет использовать ваше произведение искусства, должен прийти к вам и заплатить вам за это плату.

Возможно, вы уже чувствуете, к чему все идет.

Ждите суровых новостей.

Таким образом, генеративное приложение ИИ, которое обучается путем широкого изучения контента в Интернете, обнаруживает ваше замечательное произведение искусства. Изображение вашего произведения искусства поглощается приложением AI. Характеристики вашего мастерства теперь математически сочетаются с другими отсканированными произведениями искусства. Получив предложение создать произведение искусства, ИИ может использовать ваше произведение при создании нового художественного изображения. Те люди, которые собирают искусство, могут не осознавать, что в некотором смысле искусство имеет ваши особые отпечатки пальцев из-за того, что алгоритм ИИ отпечатался на вашем шедевре.

Существует также вероятность того, что если ваша работа была необычайно уникальной, она может быть повторно использована приложением ИИ для большего подобия демонстрации мастерства. Таким образом, иногда ваше изображение может быть едва узнаваемо в некоторых недавно созданных изображениях ИИ, в то время как в других случаях сгенерированное изображение может быть почти вылитым изображением того, что вы угадали.

Настало время включить этику ИИ в этот сценарий.

Является ли этически правильным или уместным то, что генеративный ИИ создал произведение искусства, имеющее сходство с вашим искусством?

Кто-то говорит да, а кто-то говорит нет.

Сторонники «да», полагая, что это совершенно нормально с этической точки зрения, возможно, возразят, что, поскольку вы разместили свое произведение в Интернете, оно открыто для всех, кто захочет его скопировать. Кроме того, они могут заявить, что новое искусство не является точной копией вашей работы. Таким образом, вы не можете жаловаться. Если бы мы каким-то образом прекратили повторное использование существующего искусства, у нас никогда не было бы нового искусства, на которое можно было бы смотреть. Кроме того, мы, вероятно, могли бы вступить в ожесточенные дебаты о том, копируется или эксплуатируется ли ваше конкретное произведение искусства — это может быть какое-то другое произведение искусства, о существовании которого вы даже не подозревали и которое на самом деле было основным источником.

Лагерь противников решительно настаивает на том, что это в высшей степени неэтично. Нет двух способов об этом. Они будут утверждать, что вас разводят. Тот факт, что ваше произведение искусства размещено в Интернете, не означает, что любой может прийти и свободно скопировать его. Возможно, вы разместили арт со строгим предупреждением не копировать его. Тем временем появился искусственный интеллект, удалил изображение и полностью пропустил предупреждения. Возмутительно! И оправдание, что алгоритм ИИ обобщил и не выполняет мельчайших деталей точного копирования, похоже на одно из этих фальшивых оправданий. Он придумал, как использовать ваше мастерство, и это притворство и позор.

А как насчет юридических аспектов этого генеративного ИИ?

Существует много споров о юридических особенностях генеративного ИИ. Соблюдаете ли вы федеральные законы о правах на интеллектуальную собственность (ИС)? Являются ли они достаточно резкими, чтобы их можно было применить? А как насчет того, когда генеративный ИИ преодолевает международные границы, чтобы собрать набор для обучения? Подпадает ли произведение искусства, созданное ИИ, под различные исключающие категории, связанные с правами ИС? И так далее.

Некоторые считают, что нам нужны новые законы, связанные с ИИ, чтобы бороться именно с такими ситуациями генеративного ИИ. Вместо того, чтобы пытаться подгонять существующие законы, было бы чище и проще разработать новые законы. Кроме того, даже если применяются существующие законы, затраты и задержки в попытке подать в суд могут быть огромными и препятствовать вашей способности продвигаться вперед, когда вы считаете, что вам несправедливо и незаконно причинили вред. Мое освещение этих тем см. ссылка здесь.

Я добавлю дополнительный поворот к этим соображениям об этике ИИ и закону об ИИ.

Кому принадлежат права на сгенерированный вывод ИИ?

Вы можете сказать, что люди, разработавшие ИИ, должны владеть этими правами. Не все согласны с таким утверждением. Вы можете сказать, что ИИ владеет этими правами, но это сбивает с толку тот факт, что мы обычно не признаем, что ИИ может обладать такими правами. Пока мы не выясним, будет ли ИИ иметь статус юридического лица, на этом фронте неясно, см. мой анализ на ссылка здесь.

Я надеюсь, что теперь у вас есть некоторое подобие того, что делает генеративный ИИ. Далее мы можем перейти к рассмотрению варианта использования, связанного с созданием текстовых повествований.

Генеративный ИИ, генерирующий текстовые повествования

Теперь, когда мы обсудили использование генеративного ИИ для создания искусства или изображений, мы можем легко изучить те же самые общие формулировки для создания текстовых повествований.

Начнем с того, что мы все знаем и используем каждый день. Когда вы вводите текст в текстовый редактор или приложение для работы с электронной почтой, есть вероятность, что есть функция автокоррекции, которая пытается отловить любую из ваших орфографических ошибок.

Как только такая функция автоматической помощи стала обычным явлением, следующий более продвинутый аспект состоял из возможности автозаполнения. Концепция автозаполнения заключается в том, что когда вы начинаете писать предложение, приложение для обработки текстов или электронной почты пытается предсказать, какие слова вы, вероятно, наберете следующими. Он может предсказать только одно или два слова вперед. Если эта возможность особенно расширена, она может предсказать оставшуюся часть всего предложения.

Мы можем запустить это на высокой скорости. Предположим, вы начинаете писать предложение, а автозаполнение генерирует остальную часть всего абзаца. Вуаля, вам не нужно было писать абзац напрямую. Вместо этого приложение сделало это за вас.

Хорошо, это кажется изящным. Продвиньте это дальше. Вы начинаете предложение, а автозаполнение составляет остальную часть всего сообщения. Это может состоять из многих абзацев. Все это генерируется путем ввода только части предложения или, может быть, полного предложения или двух.

Как автозаполнение определяет, что вы, скорее всего, наберете дальше?

Оказывается, люди склонны писать одно и то же снова и снова. Возможно, вы этого не сделаете, но дело в том, что все, что вы пишете, вероятно, уже было написано кем-то другим. Возможно, это не совсем то, что вы собираетесь писать. Вместо этого это может быть чем-то похоже на то, что вы собирались написать.

Давайте воспользуемся той же логикой, которая использовалась при создании искусства или изображений.

Приложение для генеративного ИИ готовится путем выхода в Интернет и изучения всех видов текста, который существует в онлайн-мире. Алгоритм пытается с помощью вычислений определить, как слова связаны с другими словами, как предложения связаны с другими предложениями и как абзацы связаны с другими абзацами. Все это математически моделируется, и создается вычислительная сеть.

Вот что происходит дальше.

Вы решаете использовать генеративное приложение ИИ, ориентированное на создание текстовых повествований. Запустив приложение, вы вводите предложение. Приложение AI вычисляет ваше предложение. Различные математические соотношения между введенными вами словами используются в математической сети, чтобы определить, какой текст будет следующим. Из одной строки, которую вы пишете, может быть создана целая история или повествование.

Теперь вы можете подумать, что это обезьяна-видит-обезьяна-делает и что результирующий текст, созданный генеративным ИИ, будет бессмысленным. Что ж, вы будете удивлены тем, насколько хорошо настроенным становится этот тип ИИ. При достаточно большом наборе данных для обучения и при достаточной компьютерной обработке, позволяющей интенсивно обрабатывать его, результаты, создаваемые генеративным ИИ, могут быть удивительно впечатляющими.

Вы бы посмотрели на вывод и, вероятно, поклялись бы, что сгенерированный рассказ был написан непосредственно человеком. Это как если бы ваше предложение было передано человеку, спрятавшемуся за кулисами, и они быстро написали вам целое повествование, которое почти полностью соответствовало тому, что вы собирались сказать в противном случае. Вот насколько хороши стали математика и вычислительная база.

Обычно при использовании генеративного ИИ, который создает текстовые повествования, вы, как правило, задаете начальный вопрос или какое-то утверждение. Например, вы можете ввести «Расскажите мне о птицах в Северной Америке», и генеративный ИИ сочтет это утверждением или вопросом, в результате чего приложение попытается идентифицировать «птиц» и «Северную Америку» с любым обученным набором данных. оно имеет. Я уверен, вы можете себе представить, что в Интернете существует огромное количество текстов, описывающих птиц Северной Америки, из которых ИИ во время предварительной подготовки извлек и смоделировал запасы текста.

Вывод, полученный для вас, вряд ли будет точным текстом какого-либо конкретного онлайн-сайта. Напомним, что то же самое было сказано ранее о сгенерированных произведениях искусства. Текст будет представлять собой набор видов, битов и фрагментов, которые связаны друг с другом математически и вычислительно. Сгенерированный текстовый нарратив для всех общих проявлений будет казаться уникальным, как если бы этот конкретный текст никогда ранее никем не был составлен.

Конечно, могут быть явные признаки. Если вы попросите или заставите генеративный ИИ углубиться в необычайно неясные темы, есть большая вероятность, что вы увидите текстовый вывод, напоминающий используемые источники. Однако в случае с текстом шансы обычно ниже, чем для искусства. Текст будет представлять собой сочетание специфики темы, но в то же время размытое и слитое с общими видами текста, которые используются в общем дискурсе.

Математические и вычислительные методы и технологии, используемые для этих генеративных возможностей ИИ, часто называются инсайдерами ИИ «большими языковыми моделями» (LLM). Проще говоря, это крупномасштабное моделирование человеческого языка. До появления Интернета вам было бы трудно найти чрезвычайно большой набор данных текста, который был бы доступен онлайн и по низкой цене. Вероятно, вам пришлось бы покупать доступ к тексту, и он не обязательно был бы уже доступен в электронном или цифровом формате.

Видите ли, Интернет хорош для чего-то, а именно в качестве готового источника для обучения генеративного ИИ.

Проницательно думать о генеративном ИИ, который создает текст

Мы должны уделить минутку размышлениям об этике ИИ и законах ИИ о разветвлениях генеративного ИИ, который создает текстовые нарративы.

Помните, что в случае с сгенерированным искусством нас беспокоила этика алгоритма ИИ, который создает искусство на основе других произведений искусства, созданных людьми. Та же проблема возникает и в текстовом экземпляре. Даже если сгенерированный текст не выглядит точно так же, как исходные источники, вы можете возразить, что тем не менее ИИ использует текст, а оригинального производителя грабят. Другая сторона этой медали заключается в том, что текст в Интернете, если он находится в свободном доступе, может быть использован любым человеком, чтобы сделать то же самое, поэтому, почему бы не позволить ИИ делать то же самое?

Сложности, связанные с юридическими аспектами прав интеллектуальной собственности, также выходят на первый план в случае текстового генеративного ИИ. Предполагая, что обучаемый текст защищен авторским правом, можете ли вы сказать, что сгенерированный текст нарушает эти законные права? Один ответ, что да, а другой ответ, что нет. Поймите, что сгенерированный текст, вероятно, будет сильно отличаться от исходного текста, поэтому вам может быть трудно заявить, что исходный текст был скопирован.

Еще одна уже упомянутая проблема — это права собственности на текстовые повествования, созданные генеративным ИИ. Предположим, вы вводите в ИИ «Напишите забавную историю о людях, ожидающих в очереди за кофе», и генеративный ИИ создает страницы за страницами веселой истории о группе людей, которые случайно встретились, ожидая чашки кофе. Ява.

Кому принадлежит эта история?

Вы можете возразить, что, поскольку вы ввели подсказку, вы по праву должны «владеть» сгенерированной историей. Кто-то скажет, ИИ создал историю, следовательно, ИИ «владеет» восхитительной историей. Да, возражали бы другие, если бы ИИ брал кусочки из всевозможных других похожих историй в Интернете, все эти люди-писатели должны были бы владеть ими.

Вопрос не решен, и мы только сейчас попадаем в юридическую трясину, которая будет продолжаться в течение следующих нескольких лет.

Есть дополнительные проблемы, связанные с этикой ИИ и законами ИИ, которые вступают в игру.

Некоторые люди, которые использовали генеративные приложения ИИ, начинают верить, что приложение ИИ разумно. Так должно быть, восклицают они. Как еще вы можете объяснить поразительные ответы и истории, которые способен создавать ИИ? Наконец-то мы получили разумный ИИ.

Они абсолютно неправы.

Это не разумный ИИ.

Когда я говорю это, некоторые инсайдеры ИИ расстраиваются и ведут себя так, как будто любой, кто отрицает, что ИИ разумен, одновременно говорит, что ИИ бесполезен. Это ложный и искаженный аргумент. Я полностью согласен с тем, что этот генеративный ИИ весьма впечатляет. Мы можем использовать его для самых разных целей, о чем я упомяну позже. Тем не менее, он не разумен. Мое объяснение того, почему такого рода прорывы в области ИИ лишены разума, см. ссылка здесь.

Еще одно преувеличенное и явно ошибочное утверждение некоторых состоит в том, что генеративный ИИ успешно прошел тест Тьюринга.

Он наверняка не сделано так.

Тест Тьюринга — это своего рода тест, чтобы выяснить, может ли приложение ИИ быть наравне с людьми. Первоначально разработанный Аланом Тьюрингом, великим математиком и первопроходцем в области компьютерных технологий, как мимическая игра, тест сам по себе прост. Если бы вы поместили человека за занавеску, а приложение ИИ за другой занавес, и задали бы им обоим вопросы, из которых вы не могли бы определить, где машина, а где человек, ИИ успешно прошел бы проверку. Тест Тьюринга. Мое подробное объяснение и анализ теста Тьюринга см. ссылка здесь.

Те люди, которые продолжают кричать, что генеративный ИИ прошел тест Тьюринга, не понимают, о чем говорят. Они либо не знают, что такое тест Тьюринга, либо, к сожалению, рекламируют ИИ неправильным и совершенно вводящим в заблуждение образом. В любом случае, одно из важнейших соображений относительно теста Тьюринга состоит в том, какие вопросы следует задавать, кто задает вопросы, а также в оценке того, соответствуют ли ответы человеческим качествам.

Я хочу сказать, что люди задают около дюжины вопросов генеративному ИИ, и когда ответы кажутся правдоподобными, эти люди опрометчиво заявляют, что тест Тьюринга пройден. Опять же, это неверно. Вводить хлипкий набор вопросов и ковыряться тут и там — это не цель и не дух теста Тьюринга. Прекратите делать эти бесчестные заявления.

Вот законная претензия, о которой вы мало что слышали, хотя я считаю, что она чрезвычайно достойна.

Разработчики ИИ обычно настраивают генеративный ИИ так, чтобы он реагировал так, как если бы реагировал человек, а именно, используя формулировку «я» или «я», когда он составляет вывод. Например, при просьбе рассказать историю о собаке, потерявшейся в лесу, генеративный ИИ может предоставить текст, который гласит: «Я расскажу вам все о собаке по имени Сэм, которая заблудилась в лесу. Это одна из моих любимых историй».

Обратите внимание на формулировку «Я расскажу вам…» и на то, что эта история «одна из моих любимых…», так что любой, кто читает этот вывод, незаметно попадет в ментальную ловушку антропоморфизации ИИ. Антропоморфизация состоит в том, что люди пытаются присвоить человеческие черты и человеческие чувства нечеловеческим существам. Вы убаюкиваете себя верой в то, что этот ИИ является человеком или человекоподобным, потому что формулировка в выводе специально разработана таким образом.

Это не должно быть разработано таким образом. На выходе может быть сказано: «Вот история о собаке по имени Сэм, которая заблудилась в лесу. Это любимая история». Вы бы с меньшей вероятностью сразу предположили, что ИИ является человеком или человекоподобным. Я понимаю, что вы все еще можете попасть в эту ловушку, но, по крайней мере, ловушки, как они были, не так ярко выражены.

Короче говоря, у вас есть генеративный ИИ, который создает текстовые повествования, основанные на том, как пишут люди, и в результате создается впечатление, что он написан так, как написал бы человек. Это имеет большой смысл, потому что ИИ математически и вычислительно повторяет то, что написали люди. Теперь добавьте к этому использование антропоморфных формулировок, и вы получите идеальный шторм, который убеждает людей в том, что ИИ разумен или прошел тест Тьюринга.

Возникает множество вопросов, связанных с этикой ИИ и законом об ИИ.

Я поразю вас довольно опасными разветвлениями этого генеративного ИИ.

Сядьте за это.

Создаваемые текстовые нарративы не обязательно отличаются правдивостью или точностью. Важно понимать, что генеративный ИИ не «понимает» то, что генерируется (можно утверждать, что никоим образом не связанный с человеком). Если текст, который использовался в обучении, содержал ложь, есть вероятность, что та же самая ложь будет внедрена в генеративную математическую и вычислительную сеть ИИ.

Кроме того, генеративный ИИ обычно не имеет никаких математических или вычислительных средств, позволяющих определить, содержит ли созданный текст ложь. Когда вы смотрите на сгенерированный выходной нарратив, он обычно выглядит совершенно «правдивым» на первый взгляд. Возможно, у вас нет действенных средств обнаружения лжи, встроенной в повествование.

Предположим, вы задаете медицинский вопрос генеративному ИИ. Приложение AI производит длинное повествование. Представьте, что большая часть повествования имеет смысл и кажется разумной. Но если вы не специалист в области медицины, вы можете не осознавать, что в повествовании есть некоторая критическая ложь. Возможно, текст говорит вам принять пятьдесят таблеток за два часа, тогда как на самом деле истинная медицинская рекомендация состоит в том, чтобы принять две таблетки за два часа. Вы могли бы поверить заявленному совету о пятидесяти таблетках просто потому, что остальная часть повествования казалась разумной и разумной.

Наличие шаблона ИИ на лжи в исходных исходных данных — это только одно из средств того, чтобы ИИ искажался в этих нарративах. В зависимости от используемой математической и вычислительной сети ИИ попытается «придумать» материал. На языке ИИ это называется ИИ. галлюцинации, что является ужасной терминологией, с которой я искренне не согласен и утверждаю, что ее не следует продолжать в качестве крылатой фразы, см. мой анализ на ссылка здесь.

Предположим, вы попросили генеративный ИИ рассказать историю о собаке. ИИ может в конечном итоге дать собаке возможность летать. Если история, которую вы хотели, должна была быть основана на реальности, летающая собака кажется маловероятной. Мы с вами знаем, что собаки изначально не умеют летать. Ничего страшного, скажете вы, раз все это знают.

Представьте себе ребенка в школе, который пытается узнать о собаках. Они используют генеративный ИИ. Он выдает результат, в котором говорится, что собаки могут летать. Ребенок не знает, правда это или нет, и предполагает, что это должно быть правдой. В каком-то смысле это как если бы ребенок зашел в онлайн-энциклопедию и там написано, что собаки умеют летать. Ребенок, возможно, и впредь будет настаивать на том, что собаки действительно могут летать.

Возвращаясь к головоломке «Этика ИИ и законы ИИ», мы сейчас находимся на грани того, чтобы иметь возможность создавать почти бесконечное количество текстового контента, созданного с помощью генеративного ИИ, и мы наводним себя несметным количеством нарративов, которые несомненно изобилует ложью и другими связанными с этим потоками дезинформации и дезинформации.

Да, одним нажатием кнопки и несколькими словами, введенными в генеративный ИИ, вы можете генерировать множество текстовых повествований, которые кажутся вполне правдоподобными и правдивыми. Затем вы можете опубликовать это в Интернете. Другие люди прочитают материал и примут его за правду. Вдобавок ко всему, другой генеративный ИИ, который пытается обучиться тексту, потенциально может столкнуться с этим материалом и внедрить его в генеративный ИИ, который он разрабатывает.

Как будто мы сейчас добавляем стероиды для создания дезинформации и дезинформации. Мы движемся к дезинформации и дезинформации в огромном галактическом глобальном масштабе.

Для производства всего этого требуется совсем немного человеческого труда.

Генеративный ИИ и ChatGPT

Давайте перейдем к хедлайнеру этой дискуссии о генеративном ИИ. Мы рассмотрели природу генеративного ИИ, который в целом создает текстовые повествования. Доступно множество таких приложений для генеративного ИИ.

Одно из приложений с искусственным интеллектом, получившее особую известность, известно как ChatGPT.

Переворот по связям с общественностью прокатился по социальным сетям и новостям — ChatGPT сейчас получает всю славу. На ChatGPT ярко светит свет. Он получает свои ошеломляющие пять минут славы.

ChatGPT — это название приложения для генеративного ИИ, разработанного организацией, известной как OpenAI. OpenAI довольно хорошо известен в области ИИ и может считаться исследовательской лабораторией ИИ. У них есть репутация раздвигать границы, когда речь идет об искусственном интеллекте для обработки естественного языка (NLP), наряду с другими достижениями искусственного интеллекта. Они приступили к серии приложений ИИ, которые они придумали как GPT (Generative Pre-Trained Transformers). Каждая версия получает номер. Ранее я писал об их GPT-3 (версия 3 их серии GPT), см. ссылка здесь.

GPT-3 привлек немало внимания, когда он был впервые выпущен (около двух лет назад он прошел широкомасштабное бета-тестирование, а более широкое распространение он получил в 2022 году). Это генеративное приложение искусственного интеллекта, которое при вводе подсказки будет создавать или генерировать текстовые повествования. Все, что я упоминал ранее об общем случае генеративных приложений ИИ, принципиально применимо к GPT-3.

Уже давно ходят слухи о том, что GPT-4 находится в стадии реализации, и те, кто занимается ИИ, затаив дыхание, ждали, чтобы увидеть, какие улучшения или усовершенствования есть в GPT-4 по сравнению с GPT-3. В эту серию входит последний промежуточный продукт, известный как GPT-3.5. Да, вы правильно поняли, это нечто среднее между выпущенным GPT-3 и еще не выпущенным GPT 4.0.

OpenAI использовал свой GPT-3.5 для создания ответвления, которое они назвали ChatGPT. Говорят, что они сделали некоторые специальные усовершенствования для создания ChatGPT. Например, существует мнение, что ChatGPT был адаптирован для работы в режиме чат-бота. Это включает в себя «разговор», который вы ведете с приложением ИИ, отслеживается ИИ и используется для создания впоследствии запрошенных повествований.

Многие из приложений для генеративного ИИ, как правило, представляют собой готовый дизайн. Вы ввели подсказку, ИИ сгенерировал повествование, и все. Ваша следующая подсказка не имеет отношения к тому, что произойдет дальше. Как будто вы начинаете заново каждый раз, когда вводите подсказку.

Не так в случае с ChatGPT. Пока еще неизвестным способом приложение AI пытается обнаружить шаблоны в ваших подсказках и, следовательно, может казаться более отзывчивым на ваши запросы (это приложение AI считается открыто доступный из-за того, что любой может зарегистрироваться, чтобы использовать его, но он по-прежнему ( изучите наши патенты), и решительно не приложение AI с открытым исходным кодом, раскрывающее его внутреннюю работу). Например, вспомните мое предыдущее указание на то, что вы хотите увидеть лягушку в шляпе на дымоходе. Один из способов заключается в том, что каждый раз, когда вы делаете такой запрос, все начинается заново. Другой метод заключается в том, что вы могли бы продолжить с тем, что вы сказали ранее. Таким образом, вы, возможно, могли бы сказать ИИ, что хотите, чтобы лягушка села, что само по себе не имеет смысла, в то время как в контексте вашего предыдущего запроса на лягушку в шляпе на дымоходе запрос, по-видимому, может иметь смысл.

Вам может быть интересно, почему вдруг ChatGPT переживает расцвет и расцвет.

Частично это связано с тем, что ChatGPT был доступен всем, кто хотел зарегистрироваться для его использования. В прошлом часто существовали избирательные критерии того, кто может использовать новое доступное приложение для генеративного ИИ. Поставщик потребует, чтобы вы были инсайдером AI или, возможно, имели другие условия. Не так с ChatGPT.

Быстро распространились слухи о том, что ChatGPT чрезвычайно прост в использовании, бесплатен и может использоваться при простой регистрации, которая требует только предоставления адреса электронной почты. Как быстрый огонь, внезапный и разжигаемый или подстрекаемый вирусными сообщениями в социальных сетях, приложение ChatGPT, как говорят, превысило один миллион пользователей. Средства массовой информации подчеркивали тот факт, что на ChatGPT зарегистрировался миллион человек.

Хотя это, безусловно, замечательно и заслуживает внимания, имейте в виду контекст этих регистраций. Это бесплатно и легко зарегистрироваться. Чат-бот очень прост в использовании и не требует предварительной подготовки или опыта. Вы просто вводите подсказки по своему выбору и формулировке, а приложение ИИ создает сгенерированное повествование. Это может сделать ребенок, что на самом деле вызывает беспокойство у некоторых, а именно: если дети используют ChatGPT, будут ли они изучать сомнительный материал (согласно моему предыдущему пункту по таким вопросам)?

Кроме того, возможно, следует отметить, что некоторые (многие?) из этих миллионов регистраций — это люди, которые, вероятно, хотели надрать шины и больше ничего не делать. Они быстро создали учетную запись, немного поиграли с приложением ИИ, подумали, что это весело и неожиданно, а затем, возможно, сделали несколько публикаций в социальных сетях, чтобы продемонстрировать то, что они нашли. После этого они могут больше никогда не входить в систему или, по крайней мере, использовать приложение AI только в случае возникновения особой необходимости.

Другие также отметили, что время, когда ChatGPT становится доступным, совпало со временем года, которое вызвало большой интерес к приложению AI. Возможно, во время праздников у нас будет больше времени, чтобы поиграть с забавными предметами. Появление социальных сетей также сделало это своего рода феноменом. Классический FOMO (страх упустить возможность), вероятно, добавил к беспорядочной спешке. Конечно, если вы сравните один миллион с некоторыми популярными влиятельными лицами YouTube, вы можете предположить, что миллион — ничтожное число по сравнению с теми видеоблогами, которые получают сотни миллионов регистраций или просмотров при первом удалении или публикации.

Что ж, давайте не будем отвлекаться и просто отметим, что все же для ИИ-приложения экспериментального характера миллион регистраций, безусловно, достоин похвалы.

Сразу же люди использовали ChatGPT для создания историй. Затем они опубликовали истории и рассказали о своем чуде. Репортеры и журналисты даже давали «интервью» ChatGPT, что немного сбивает с толку, потому что они попадают в ту же самую антропоморфную ловушку (либо из-за фактического незнания, либо из-за того, что надеются получить слишком много просмотров для своих статей). Непосредственной тенденцией также было заявить, что ИИ теперь достиг разума или прошел тест Тьюринга, который я явно прокомментировал здесь ранее.

Общественные опасения, поднятые ChatGPT, на самом деле уже просачивались в результате более ранних версий GPT, а также множества уже доступных LLM и генеративного ИИ. Разница в том, что теперь весь мир решил вмешаться. Это удобно. Мы должны убедиться, что этика ИИ и закон об ИИ получают должное освещение и внимание. Если для этого потребуется ChatGPT, пусть будет так.

Какие опасения высказываются?

Возьмем случай использования, когда студентов просят написать эссе для своих классов. Студент обычно должен написать эссе, полностью основываясь на своих способностях к письму и сочинению. Конечно, они могут просматривать другие письменные материалы, чтобы почерпнуть идеи и цитаты, но в остальном предполагается, что студент придумывает свое эссе из собственной головы. Копирование прозы из других источников не одобряется, что обычно приводит к оценке F или, возможно, исключению за плагиат другого материала.

В настоящее время, вот что может иметь место. Учащийся регистрируется в ChatGPT (или любом другом подобном приложении для генеративного ИИ). Они вводят любую подсказку, которую дал им учитель для составления сочинения. ChatGPT создает полноценное эссе на основе подсказки. Это «оригинальная» композиция в том смысле, что вы не обязательно найдете ее где-либо еще. Вы не можете доказать, что композиция была плагиатом, так как, по сути, она не была плагиатом.

Студент сдает сочинение. Они утверждают, что это их собственная письменная работа. У учителя нет готовых средств думать иначе. При этом вы можете предположить, что если письменная работа, по-видимому, выходит за рамки существующих возможностей студента, у вас могут возникнуть подозрения. Но этого мало, если вы собираетесь обвинить студента в списывании.

Как с этим справятся учителя?

Некоторые вносят в свои учебные материалы правило, согласно которому любое использование ChatGPT или эквивалента будет считаться формой мошенничества. Кроме того, отказ от использования ChatGPT или его эквивалента является формой мошенничества. Сократит ли это эту новую возможность? Говорят, что это сомнительно, поскольку шансы быть пойманным невелики, а шансы получить хорошую оценку за хорошо написанную работу высоки. Вы, вероятно, можете представить себе студентов, которым нужно написать сочинение в срок, накануне вечером у них возникнет соблазн использовать генеративный ИИ, чтобы, казалось бы, вытащить их из затруднительного положения.

Переключение передач, любой тип письма потенциально будет нарушена с помощью генеративного ИИ.

Вас просят написать служебную записку на работе об этом или о другом? Не тратьте свое время, делая это с нуля. Используйте генеративный ИИ. Затем вы можете вырезать и вставлять сгенерированный текст в свою композицию, корректировать текст по мере необходимости и с легкостью выполнять тяжелую работу по написанию.

Кажется ли это правильным?

Держу пари, что большинство людей сказали бы, черт возьми, да. Это даже лучше, чем копировать что-то из Интернета, что может навлечь на вас большие неприятности за плагиат. Имеет огромный смысл использовать генеративный ИИ, чтобы ваши писательские усилия были частично или даже полностью выполнены за вас. Вот для чего созданы инструменты.

Кроме того, в одной из моих следующих колонок будет подробно рассмотрен вариант использования генеративного ИИ в юридических целях в смысле выполнения юридической работы и создания юридических документов. Любой, кто является адвокатом или профессиональным юристом, захочет подумать о том, как генеративный ИИ может потенциально искоренить или нарушить юридическую практику. Рассмотрим, например, юриста, составляющего юридическую сводку для судебного дела. Они потенциально могут использовать генеративный ИИ для написания композиции. Конечно, у него могут быть некоторые недостатки, поэтому юристу приходится подправлять его здесь или там. Уменьшение количества труда и времени на подготовку брифа может сделать корректировку вполне оправданной.

Некоторые, однако, обеспокоены тем, что юридический документ может содержать ложь или галлюцинации ИИ, которые адвокат не уловил. Точка зрения в этом повороте состоит в том, что это лежит на плечах адвоката. Предположительно, они представляли, что бриф был написан ими, поэтому, независимо от того, написал ли его младший сотрудник или приложение ИИ, они по-прежнему несут окончательную ответственность за окончательное содержание.

Ситуация усложнится, если неюристы начнут использовать генеративный ИИ, чтобы выполнять за них юридическую работу. Они могут полагать, что генеративный ИИ может создавать всевозможные юридические документы. Проблема, конечно, в том, что документы могут быть недействительными. Подробнее об этом я расскажу в своей следующей колонке.

Возникает важное эмпирическое правило, касающееся общества и акта человеческого письма.

Это как-то знаменательно:

  • Всякий раз, когда вам поручают что-то написать, следует ли вам писать элемент с нуля или использовать генеративный инструмент искусственного интеллекта, чтобы двигаться вперед?

Вывод может быть полусырым, и вам придется много переписывать. Или вывод может быть правильным, и вам нужно будет только внести незначительные изменения. В общем, если использование бесплатное и простое, искушение использовать генеративный ИИ будет огромным.

Бонусом является то, что вы потенциально можете использовать генеративный ИИ для некоторых ваших переписываний. Подобно подсказкам о лягушке в шляпе и дымоходе, при создании арта вы можете делать то же самое при создании текстовых нарративов. ИИ может создать вашу историю о собаке, а вместо этого вы решили, что хотите, чтобы главным героем был кот. После получения истории о собаке вы вводите другую подсказку и указываете приложению AI переключиться на использование кошки в истории. Скорее всего, это приведет к большему, чем просто замена слова «собака» словом «кошка» в повествовании. Приложение ИИ может легко изменить историю, чтобы сделать ссылки на то, что делают кошки, а не на то, что делают собаки. Вся история может быть пересмотрена, как если бы вы попросили человека внести такие исправления.

Мощный, впечатляющий, удобный.

Несколько предостережений для размышления:

  • Потеряем ли мы коллективно способность писать, став полностью зависимыми от генеративного ИИ, который будет писать за нас?
  • Будут ли лишены работы люди, которые зарабатывают на жизнь писательством (то же самое спрашивают и о художниках)?
  • Будет ли Интернет расти огромными скачками по мере того, как сгенерированные нарративы будут наводнены онлайн, и мы больше не сможем отделить правду от лжи?
  • Будут ли люди твердо верить в эти сгенерированные нарративы и действовать так, как будто авторитетная фигура предоставила им правдивый материал, на который они могут положиться, включая, возможно, контент, связанный с жизнью или смертью?
  • Другие контрактные услуги

Подумайте об этом.

Обратите внимание, что один из этих маркированных пунктов касается использования материала, созданного генеративным ИИ, на основе принципа жизни или смерти.

Вот вам сердцеед (предупреждение о триггере, вы можете пропустить этот абзац). Представьте, что подросток спрашивает генеративный ИИ, следует ли ему покончить с собой. Что будет генерировать генеративное приложение ИИ? Вы, естественно, надеетесь, что приложение ИИ создаст нарратив, говорящий не делать этого, и громогласно призовет спрашивающего обратиться к специалистам по психическому здоровью.

Существует вероятность, что ИИ не упомянет эти аспекты. Что еще хуже, приложение ИИ могло ранее захватить текст в Интернете, который, возможно, побуждает к совершению таких действий, и приложение ИИ (поскольку оно не имеет способности человеческого понимания) выдает повествование, которое в основном намекает или прямо заявляет, что подросток должен действовать. неустрашимый. Подросток считает, что это правдивое руководство авторитетной онлайн-системы «Искусственный интеллект».

Плохие вещи.

Действительно, очень плохая вещь.

Некоторые разработчики генеративного ИИ пытаются внедрить систему сдержек и противовесов в ИИ, чтобы попытаться предотвратить возникновение подобных ситуаций. Дело в том, что формулировка подсказки потенциально может проскользнуть через запрограммированные барьеры. То же самое можно сказать и о произведенной продукции. Не существует какой-либо гарантированной железной фильтрации, которая могла бы гарантировать, что этого никогда не произойдет.

Есть еще один аспект этого текстового производства, которого вы, возможно, не ожидали.

Вот он.

Когда программисты или разработчики программного обеспечения создают код для своего программного обеспечения, они, по сути, пишут текст. Текст несколько загадочен, поскольку он основан на языке, определенном для конкретного языка программирования, такого как Python, C++, Java и т. д. В конце концов, это текст.

Затем исходный код компилируется или запускается на компьютере. Разработчик проверяет свой код, чтобы убедиться, что он делает то, что должен был делать. Они могут внести исправления или отладить код. Как вы знаете, программисты или инженеры-программисты пользуются большим спросом и часто требуют высоких цен за свою работу.

Для генеративного ИИ текст исходного кода — это текст. Способность находить шаблоны в миллионах строк кода, которые есть в Интернете и доступны в различных репозиториях, позволяет математически и вычислительно определить, какой код что делает.

Загвоздка в этом.

С подсказкой вы потенциально можете заставить генеративный ИИ создать для вас целую компьютерную программу. Не нужно усердно работать над кодом. Вы, наверное, слышали, что существуют так называемые низкий код инструменты, доступные в наши дни, чтобы уменьшить усилия программистов при написании кода. Генеративный ИИ можно рассматривать как низкий код или даже без кода вариант, так как он пишет код для вас.

Прежде чем те из вас, кто пишет код для заработка, упадут на пол и потеряют сознание, имейте в виду, что код не «понятен» так, как вы, как человек, предположительно понимаете его. Кроме того, код может содержать ложь и галлюцинации ИИ. Полагаться на такой код без тщательной проверки кода было бы рискованно и сомнительно.

Мы вернулись к тем же соображениям относительно написания рассказов и заметок. Возможно, подход заключается в использовании генеративного ИИ, чтобы помочь вам в кодировании. Однако существует значительный компромисс. Вы безопаснее писать код напрямую или иметь дело с кодом, созданным ИИ, который может иметь коварные и трудно обнаруживаемые встроенные проблемы?

Время покажет.

Краткое знакомство с ChatGPT

Когда вы начинаете использовать ChatGPT, отображается ряд предостережений и информационных комментариев.

Давайте кратко рассмотрим их:

  • «Иногда может генерировать неверную информацию».
  • «Может иногда создавать вредные инструкции или предвзятый контент».
  • «Обучен отклонять неуместные запросы».
  • «Наша цель — получить отзывы извне, чтобы улучшить наши системы и сделать их более безопасными».
  • «Хотя у нас есть меры безопасности, система может время от времени генерировать неверную или вводящую в заблуждение информацию и создавать оскорбительный или предвзятый контент. Он не предназначен для того, чтобы давать советы».
  • «Беседы могут быть просмотрены нашими инструкторами по ИИ для улучшения наших систем».
  • «Пожалуйста, не делитесь конфиденциальной информацией в своих разговорах».
  • «Эта система оптимизирована для диалога. Сообщите нам, был ли тот или иной ответ хорошим или бесполезным».
  • «Ограниченное знание мира и событий после 2021 года».

Из-за нехватки места я не могу подробно описать их здесь, но давайте, по крайней мере, проведем быстрый анализ.

Я уже упоминал, что сгенерированные текстовые нарративы могут содержать ложь и дезинформацию.

Есть еще кое-что, за чем вам нужно следить. Остерегайтесь нарративов, которые могут содержать различные подстрекательские замечания, демонстрирующие неблагоприятные предубеждения.

Сообщалось, что чтобы попытаться предотвратить это, OpenAI использовал людей для двойной проверки во время обучения ChatGPT. Проверяющие будут вводить подсказки, которые, вероятно, подтолкнут ИИ к созданию подстрекательского контента. Когда проверяющие видели такой контент, они указывали ИИ, что это неприемлемо, и в некотором смысле начисляли числовой штраф за полученный результат. С математической точки зрения алгоритм ИИ будет стремиться свести штрафные баллы к минимуму и, следовательно, с вычислительной точки зрения стремиться к тому, чтобы впредь не использовать эти фразы или формулировки.

Аналогичным образом, когда вы вводите подсказку, ИИ пытается определить, является ли ваша подсказка подстрекательской или может привести к подстрекательству, для чего подсказка может быть отклонена ИИ. Вежливо, идея состоит в том, чтобы отклонить неуместные подсказки или просьбы. Например, ИИ, скорее всего, откажется от шутки, которая влечет за собой расовые оскорбления.

Я уверен, что вы не удивитесь, узнав, что люди, использующие ChatGPT, пытались обойти меры предосторожности. Эти «предприимчивые» пользователи либо обманули ИИ, либо нашли хитрые способы обойти математические формулировки. Некоторые из этих усилий предпринимаются для явной радости от победы над системой или выхода за ее пределы, в то время как другие утверждают, что они пытаются продемонстрировать, что ChatGPT по-прежнему будет приводить к неблагоприятным результатам.

Они правы в одном; меры предосторожности не являются надежными. Мы вернулись к другому рассмотрению этики ИИ и возможного закона об ИИ. Следует ли разрешить генеративному ИИ работать, даже если он может привести к неблагоприятным последствиям?

Предупреждения при использовании ChatGPT, по-видимому, предупреждают кого-либо о том, что может сделать или сказать приложение AI. Скорее всего, неизбежно будут поданы какие-то судебные иски, когда кто-то, возможно, несовершеннолетний, получает неблагоприятные результаты оскорбительного характера (или когда они получают авторитетно выглядящие текстовые нарративы, которые, к сожалению, они считают правдивыми, и действуют в соответствии с выходными данными для своих). собственной опасности).

Несколько других быстрых нюансов о подсказках, о которых стоит знать.

Каждый раз, когда вы вводите подсказку, вывод может существенно отличаться, даже если вы вводите точно такую ​​же подсказку. Например, при вводе «Расскажи мне историю о собаке» вы получите текстовое повествование, возможно, указывающее на сказку об овчарке, в то время как в следующий раз, когда вы введете «Расскажите мне историю о собаке», это может быть полностью другая история и с участием пуделя. Именно так математически и вычислительно устроена большая часть генеративного ИИ. Говорят, что он недетерминирован. Некоторых людей это нервирует, поскольку они привыкли к тому, что ваш ввод в компьютер всегда будет производить один и тот же точный результат.

Перестановка слов также заметно повлияет на сгенерированный вывод. Если вы введете «Расскажите мне историю о собаке», а затем введите «Расскажите мне историю о собаке», вероятность того, что созданные нарративы будут существенно отличаться. Чувствительность может быть резкой. Просьба рассказать историю о собаке и просьба рассказать историю о большой собаке, несомненно, приведут к радикально разным нарративам.

Наконец, обратите внимание, что отмеченные выше пункты содержат указание на то, что ChatGPT имеет «ограниченные знания о мире и событиях после 2021 года». Это связано с тем, что разработчики ИИ решили ограничить время, когда приложение ИИ будет собирать и обучать данные из Интернета. Я заметил, что пользователи часто не понимают, что ChatGPT не подключен напрямую к современному Интернету для получения данных и создания генерируемых выходных данных. Мы настолько привыкли ко всему, что работает в режиме реального времени и подключено к Интернету, что ожидаем того же и от приложений ИИ. Не в этом конкретном случае (и, чтобы уточнить, ChatGPT действительно доступен в Интернете, но когда он составляет текстовый вывод, он не отбирает для этого Интернет как таковой, вместо этого он обычно останавливается во времени, чтобы около даты закрытия).

Вы можете быть удивлены, почему ChatGPT не передает данные из Интернета в режиме реального времени. Пара разумных причин. Во-первых, было бы дорого с вычислительной точки зрения пытаться проводить обучение в режиме реального времени, плюс приложение ИИ будет работать с задержкой или менее реагировать на подсказки (в настоящее время оно работает очень быстро, обычно отвечая выводом текстового повествования за несколько секунд). ). Во-вторых, гадости в Интернете, которым они пытались обучить ИИ-приложение, чтобы избежать их, скорее всего, закрадутся в математические и вычислительные формулировки (и, как уже отмечалось, они уже в какой-то степени присутствуют там, хотя они пытались обнаружить это с помощью используя эти человеческие двойные шашки).

Вы обязательно услышите, как некоторые люди нагло заявляют, что ChatGPT и подобный генеративный ИИ — это похоронный звон для поиска Google и других поисковых систем. Зачем выполнять поиск в Google, который возвращает множество справочных материалов, если вы можете заставить ИИ что-то написать для вас? Ага, заявляют эти люди, Google должен закрыть свои двери и уйти домой.

Конечно, это чистая чепуха.

Люди все еще хотят делать поиски. Они хотят иметь возможность просматривать справочные материалы и разбираться во всем самостоятельно. Это не взаимоисключающий бинарный выбор «туда-сюда» (это ложная дихотомия).

Генеративный ИИ — это другой вид инструмента. Вы не будете разбрасывать молотки только потому, что изобрели отвертку.

Более разумный способ думать об этом состоит в том, что два типа инструментов могут быть совместимы для использования людьми, которые хотят делать что-то, связанное с Интернетом. Некоторые уже пробовали соединить генеративный ИИ с обычными поисковыми системами в Интернете.

Одна из проблем для тех, кто уже предоставляет поисковую систему, заключается в том, что «бесплатный» инструмент генеративного ИИ потенциально может подорвать репутацию поисковой системы. Если вы выполняете поиск в Интернете и получаете подстрекательские материалы, вы знаете, что это просто способ Интернета. Если вы используете генеративный ИИ, и он создает отталкивающее и мерзкое текстовое повествование, вас, вероятно, это беспокоит. Возможно, если генеративный ИИ тесно связан с конкретной поисковой системой, ваше неудовольствие и отвращение к генеративному ИИ распространяется на все, что вы думаете о поисковой системе.

В любом случае, мы почти наверняка увидим альянсы между различными инструментами генеративного ИИ и интернет-поисковиками, осторожно и осознанно вступающие в эти мутные воды.

Заключение

Вот вам вопрос.

Как кто-то может зарабатывать деньги, предоставляя генеративный ИИ, который создает текстовые повествования?

OpenAI уже заявил, что внутренние затраты на транзакцию ChatGPT, по-видимому, несколько высоки. Они пока не монетизируют ChatGPT.

Готовы ли люди платить комиссию за транзакцию или, может быть, платить за подписку, чтобы получить доступ к генеративным инструментам искусственного интеллекта?

Может ли реклама быть способом заработать деньги с помощью генеративных инструментов искусственного интеллекта?

Никто еще не уверен в том, как это будет зарабатывать деньги. Мы все еще находимся на грандиозной экспериментальной стадии такого ИИ. Разместите приложение AI и посмотрите, какую реакцию вы получите. Настройте ИИ. Используйте информацию, полученную в результате использования, чтобы указать, куда следует направить ИИ дальше.

Вспенить, промыть, повторить.

В качестве заключительного комментария: на данный момент некоторые считают, что это тип ИИ, которого нам вообще не следует иметь. Поверните часы вспять. Поместите этого джина обратно в бутылку. Мы попробовали его и поняли, что у него есть заметные недостатки, и коллективно, поскольку общество может согласиться с тем, что мы должны вести эту лошадь обратно в сарай.

Считаете ли вы, что обещания генеративного ИИ лучше или хуже, чем недостатки?

С точки зрения реального мира это не имеет особого значения, потому что в реальности устранение генеративного ИИ, как правило, нецелесообразно. Генеративный ИИ развивается дальше, и вы не собираетесь останавливаться на достигнутом ни здесь, ни в какой-либо другой стране (так и есть). Как бы вы это сделали? Примите законы, полностью запрещающие генеративный ИИ. Не особенно жизнеспособно (по-видимому, у вас больше шансов установить законы, формирующие генеративный ИИ, и стремиться законно управлять теми, кто его разрабатывает). Может быть, вместо этого заставить культуру избегать генеративного ИИ? Вы можете заставить некоторых людей согласиться с позором, но другие не согласятся и все равно продолжат генеративный ИИ.

Как я уже отмечал ранее, это загадка этики ИИ и закона об ИИ.

Ваш последний большой вопрос заключается в том, ведет ли нас генеративный ИИ по пути к разумному ИИ. Некоторые настаивают, что это так. Аргумент состоит в том, что если мы просто продолжим оценивать математические модели и нагружать вычислительные компьютерные серверы и скармливать этому зверю каждый кусочек Интернета и многое другое, алгоритмический ИИ превратит угол в разум.

И, если это так, мы сталкиваемся с опасениями, что ИИ представляет собой экзистенциальный риск. Вы снова и снова слышали, что как только у нас появится разумный ИИ, может случиться так, что ИИ решит, что люди не очень полезны. Следующее, что вы знаете, ИИ либо поработил нас, либо уничтожил нас, смотрите мое исследование этих экзистенциальных рисков на ссылка здесь.

Противоположная точка зрения состоит в том, что мы не сможем получить разум из того, что некоторые искусно охарактеризовали как стохастический попугай (это крылатая фраза, получившая распространение в сфере ИИ), вот цитата, использующая эту фразу:

  • «Вопреки тому, как может показаться, когда мы наблюдаем за его выходными данными, LM — это система для случайного сшивания последовательностей лингвистических форм, которые она наблюдала в своих обширных обучающих данных, в соответствии с вероятностной информацией о том, как они сочетаются, но без какой-либо ссылки на значение. : стохастический попугай» (в исследовательской статье Эмили М. Бендер, Тимнита Гебру, Анджелины Макмиллан-Мейджор, Шмаргарет Шмитчелл, ACM ФАКТЫ '21, 3–10 марта 2021 г., виртуальное мероприятие, Канада, под названием «Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими?»).

Является ли генеративный ИИ своего рода тупиком, который предоставит полезные возможности ИИ, но не приведет нас к разумному ИИ, или может каким-то образом фактор масштабирования способствовать возникновению сингулярности, ведущей к разумному ИИ?

Начинается жаркая дискуссия.

Скажите, вы хотите попробовать генеративный ИИ?

Если да, вот ссылка на ChatGPT, где вы можете создать учетную запись и попробовать ее использовать, см. ссылка здесь.

Имейте в виду, что из-за высокого спроса на использование экспериментального приложения ИИ, по-видимому, регистрация для доступа может быть остановлена ​​в любое время, либо на короткое время, либо может быть ограничена (когда я последний раз проверял, регистрация все еще была включена). Просто предупреждаю.

Пожалуйста, примите во внимание все, что я сказал здесь о генеративном ИИ, чтобы вы знали, что происходит, когда вы используете приложение ИИ, такое как ChatGPT.

Будьте вдумчивы в своих действиях.

Собираетесь ли вы непреднамеренно привести нас к разумному ИИ, который в конечном итоге уничтожит нас, просто потому, что вы решили поиграть с генеративным ИИ? Вы будете виновны? Должен ли ты был остановить себя от участия в жалком уничтожении человечества.

Я так не думаю. Но может случиться так, что повелители ИИ (уже) вынуждают меня сказать это, или, может быть, вся эта колонка на этот раз была написана ChatGPT или эквивалентным приложением для генеративного ИИ.

Не волнуйся, уверяю тебя, это был я, человеческий интеллект, и не искусственный интеллект.

Источник: https://www.forbes.com/sites/lanceeliot/2022/12/13/digging-into-the-buzz-and-fanfare-over-generative-ai-chatgpt-include-looming-ai-ethics- и-ай-право-соображения/