Те школы, которые запрещают доступ к генеративному ИИ ChatGPT, не собираются двигать иглу и промахиваются, говорит этика ИИ и закон об ИИ

Запрещать или не запрещать, вот в чем вопрос.

Я предполагаю, что если бы Шекспир жил сейчас, он мог бы сказать что-то подобное о недавних попытках запретить использование ИИ, известного как Генеративный ИИ, который особенно популярен и популярен благодаря приложению AI под названием ChatGPT.

Вот сделка.

Некоторые известные организации пытались запретить использование ChatGPT.

Например, Департамент образования Нью-Йорка (NYC) недавно объявил, что они продолжают блокировать доступ к ChatGPT в различных сетях и на подключенных устройствах. Сообщаемое обоснование запрета состояло из указаний на то, что это приложение ИИ и общее использование генеративного ИИ, по-видимому, предвещают негативные последствия для обучения учащихся. Говорят, что студенты, которые предпочитают использовать ChatGPT, подрывают развитие их важнейших навыков критического мышления и подрывают рост их способностей решать проблемы.

Вдобавок к этим довольно сильным тревожным сомнениям существует неоспоримый факт, что такой ИИ может давать неточные результаты, содержащие ошибки и другие фактические болезни. Это плохо. Опасной вишенкой на торте является воображаемая возможность того, что результаты потенциально могут быть использованы небезопасным образом учениками, которые неосознанно полагаются на указанную ложь. Такой задокументированный вред, который я видел, еще не всплывал, поэтому нам нужно просто принять за чистую монету, что это может произойти (я обсуждал ряд возможностей в своих сообщениях; например, некоторые утверждали, что генеративный ИИ эссе могут посоветовать кому-то принимать лекарства, которые ему не следует принимать, или дать совет по психическому здоровью, который должны давать специалисты по психическому здоровью и т. д.).

В сегодняшней колонке я рассмотрю природу недавно введенных запретов и выясню, имеют ли они смысл или нет. Есть много вопросов для рассмотрения. Приносят ли такие запреты пользу? Действуют ли эти запреты? Если таких запретов станет больше, будем ли мы помогать человечеству или ненароком прострелим себе ногу?

Как вы, вероятно, догадываетесь, все это не настолько четко, как может показаться на первый взгляд.

Ко всему этому относится множество соображений по этике и закону об ИИ. Имейте в виду, что предпринимаются постоянные усилия по внедрению этических принципов ИИ в разработку и внедрение приложений ИИ. Растущий контингент заинтересованных и бывших специалистов по этике ИИ пытается обеспечить, чтобы усилия по разработке и внедрению ИИ учитывали точку зрения AI для хорошего и предотвращение AI для плохих. Точно так же предлагаются новые законы об ИИ, которые распространяются как потенциальные решения, чтобы удержать усилия ИИ от нарушения прав человека и тому подобного. Мой постоянный и обширный обзор этики ИИ и закона об ИИ см. ссылка здесь и ссылка здесь, Просто назвать несколько.

Идея запрета некоторых типов ИИ не нова.

В одной из своих колонок я внимательно проанализировал предлагаемые запреты, связанные с использованием ИИ для автономных систем вооружения, см. ссылка здесь. Различные страны занимаются разработкой оружия, включающего бортовой ИИ. Это общеизвестное оружие типа «выстрелил-забыл». Все, что вы делаете, это выпускаете оружие, и с этого момента управление берет на себя ИИ. Будем надеяться, что ИИ направит вооружение в нужное место и взорвет или доставит его соответствующим образом. Часто очень мало вмешательства человека в цикле, поскольку процесс может происходить быстрее, чем люди в любом случае могут отреагировать, или вероятность того, что противник взломает систему и помешает оружию выполнять свою работу, уменьшается или сокращается, предотвращая что-либо другое. чем ИИ от вождения боеприпасов.

Очевидно, что это тот случай, когда ИИ влечет за собой последствия для жизни или смерти. Вы можете убедительно возразить, что нам следует задуматься о последствиях такого ужасного ИИ. Внешне разумно перевернуть каждый камень, прежде чем мы позволим ИИ превратиться в бетон для автономного оружия. На карту поставлено множество жизней.

Относится ли такое же предчувствие и серьезность к использованию генеративного ИИ, включая ChatGPT?

Вам будет сложно сказать, что этот тип ИИ находится в той же лиге, что и другой тип ИИ, который направляет смертоносные ракеты и другие боеприпасы. При этом, даже если на кону не стоит жизнь или смерть, это не означает, что мы не можем уделить должное внимание тому, какие неблагоприятные последствия может вызвать генеративный ИИ. Ставки могут быть разными, тем не менее искренняя озабоченность по поводу генеративного ИИ имеет свои достоинства.

Я склонен разделять различные запреты, связанные с ИИ, на следующий спектр:

  • Абсолютный запрет
  • Частичный бан
  • Слабый бан
  • Не бан

Есть и другая сторона медали, а именно стремление включить или поддержать ИИ, например, представленный в этом спектре:

  • Подтверждение
  • Мягкое принятие
  • Полное принятие
  • Обязательное требование

Различные диапазоны запретов, а также периоды принятия будут удобны для рассмотрения, когда мы рассмотрим недавние попытки запретить использование ChatGPT.

Во-первых, давайте убедимся, что мы все согласны с тем, из чего состоит Генеративный ИИ, а также что такое ChatGPT. Как только мы рассмотрим этот основополагающий аспект, мы сможем провести убедительную оценку того, будут ли запреты на ChatGPT плодотворными.

Краткое введение в генеративный ИИ и ChatGPT

ChatGPT — это универсальная интерактивная система ИИ, ориентированная на общение, по сути, кажущийся безобидным обычный чат-бот, тем не менее, он активно и жадно используется людьми способами, которые застают многих врасплох, о чем я расскажу позже. Это приложение ИИ использует технику и технологию в области ИИ, которые часто называют Генеративный ИИ. ИИ генерирует выходные данные, такие как текст, что и делает ChatGPT. Другие приложения на основе генеративного искусственного интеллекта создают изображения, такие как изображения или иллюстрации, в то время как другие создают аудиофайлы или видео.

В этом обсуждении я сосредоточусь на текстовых приложениях для генеративного ИИ, поскольку это то, что делает ChatGPT.

Приложения для генеративного ИИ чрезвычайно просты в использовании.

Все, что вам нужно сделать, это ввести приглашение, и приложение AI создаст для вас эссе, которое попытается ответить на ваше приглашение. Сочиненный текст будет казаться, будто сочинение написано рукой и умом человека. Если вы введете запрос «Расскажите мне об Аврааме Линкольне», генеративный ИИ предоставит вам эссе о Линкольне. Это обычно классифицируется как генеративный ИИ, который выполняет текст в текст или некоторые предпочитают называть это текст в эссе вывод. Как уже упоминалось, существуют и другие режимы генеративного ИИ, такие как преобразование текста в искусство и преобразование текста в видео.

Ваша первая мысль может заключаться в том, что эта генеративная способность не кажется такой уж большой проблемой с точки зрения написания эссе. Вы можете легко выполнить онлайн-поиск в Интернете и без труда найти тонны и тонны эссе о президенте Линкольне. Преимущество генеративного ИИ в том, что сгенерированное эссе относительно уникально и представляет собой оригинальную композицию, а не подражание. Если бы вы попытались найти эссе, созданное искусственным интеллектом, где-нибудь в Интернете, вы бы вряд ли его обнаружили.

Генеративный ИИ предварительно обучен и использует сложную математическую и вычислительную формулировку, которая была создана путем изучения шаблонов в написанных словах и историях в Интернете. В результате изучения тысяч и миллионов письменных отрывков ИИ может извергать новые эссе и рассказы, представляющие собой мешанину из того, что было найдено. Благодаря добавлению различных вероятностных функций полученный текст в значительной степени уникален по сравнению с тем, что было использовано в обучающем наборе.

Вот почему поднялся шум по поводу того, что студенты могут жульничать при написании эссе за пределами класса. Преподаватель не может просто взять сочинение, которое лживые студенты утверждают, что оно написано им самим, и попытаться выяснить, не было ли оно скопировано из какого-то другого онлайн-источника. В целом, в Интернете не будет какого-либо определенного ранее существовавшего эссе, которое соответствовало бы эссе, созданному ИИ. В общем, учителю придется неохотно признать, что студент написал сочинение как оригинальное произведение.

Есть дополнительные опасения по поводу генеративного ИИ.

Одним из существенных недостатков является то, что эссе, созданные генеративным ИИ-приложением, могут содержать различную ложь, в том числе заведомо ложные факты, факты, вводящие в заблуждение, и очевидные факты, которые полностью сфабрикованы. Эти сфабрикованные аспекты часто называют формой Галлюцинации ИИ, крылатая фраза, которую я не одобряю, но, к сожалению, кажется, в любом случае набирает популярность (моё подробное объяснение того, почему это паршивая и неподходящая терминология, см. ссылка здесь).

Я хотел бы прояснить один важный аспект, прежде чем мы углубимся в суть этой темы.

В соцсетях появилось несколько абсурдных громких заявлений о Генеративный ИИ утверждая, что эта последняя версия ИИ на самом деле разумный ИИ (нет, они ошибаются!). Специалисты по этике ИИ и закону об ИИ особенно обеспокоены этой растущей тенденцией к растянутым претензиям. Вы можете вежливо сказать, что некоторые люди преувеличивают возможности современного ИИ. Они предполагают, что у ИИ есть возможности, которых мы еще не смогли достичь. Это прискорбно. Что еще хуже, они могут позволить себе и другим попасть в ужасные ситуации из-за предположения, что ИИ будет разумным или похожим на человека и сможет действовать.

Не очеловечивайте ИИ.

Это приведет к тому, что вы попадете в липкую и суровую ловушку уверенности, ожидая, что ИИ будет делать то, что он не в состоянии выполнить. При этом последние разработки в области генеративного ИИ относительно впечатляют своими возможностями. Имейте в виду, однако, что существуют существенные ограничения, о которых вы должны постоянно помнить при использовании любого приложения для генеративного ИИ.

Если вам интересен быстро растущий ажиотаж вокруг ChatGPT и генеративного ИИ, я сделал серию статей в своей колонке, которые могут оказаться для вас информативными. Вот краткий обзор на случай, если какая-либо из этих тем заинтересует вас:

  • 1) Прогнозы развития генеративного ИИ. Если вы хотите знать, что может произойти с ИИ в 2023 году и далее, включая предстоящие достижения в области генеративного ИИ и ChatGPT, вам следует прочитать мой исчерпывающий список прогнозов на 2023 год по адресу ссылка здесь.
  • 2) Генеративный ИИ и советы по психическому здоровью. Я решил просмотреть, как генеративный ИИ и ChatGPT используются для консультирования по вопросам психического здоровья, что является неприятной тенденцией, согласно моему целенаправленному анализу на ссылка здесь.
  • 3) Использование контекста и генеративного ИИ. Я также провел ироничное исследование с сезонным привкусом о контексте, связанном с Санта-Клаусом, с участием ChatGPT и генеративного ИИ в ссылка здесь.
  • 4) Мошенники, использующие генеративный ИИ. Зловещая нота: некоторые мошенники выяснили, как использовать генеративный ИИ и ChatGPT для совершения правонарушений, в том числе для создания мошеннических электронных писем и даже для создания программного кода для вредоносных программ, см. мой анализ на ссылка здесь.
  • 5) Ошибки новичков при использовании генеративного ИИ. Многие люди как переоценивают, так и неожиданно недооценивают то, что могут сделать генеративный ИИ и ChatGPT, поэтому я особенно рассмотрел недооценку, которую склонны делать новички ИИ, см. обсуждение на ссылка здесь.
  • 6) Как справиться с генеративными подсказками ИИ и галлюцинациями ИИ. Я описываю передовой подход к использованию надстроек ИИ для решения различных проблем, связанных с попыткой ввести подходящие подсказки в генеративный ИИ, а также существуют дополнительные надстройки ИИ для обнаружения так называемых галлюцинаций и ложных выводов ИИ. покрыты в ссылка здесь.
  • 7) Развенчание заявлений Болвана об обнаружении генеративных эссе, созданных искусственным интеллектом. Существует ошибочная золотая лихорадка приложений ИИ, которые заявляют, что могут установить, было ли то или иное эссе создано человеком или создано ИИ. В целом, это вводит в заблуждение, а в некоторых случаях является глупым и несостоятельным утверждением, см. мой репортаж на ссылка здесь.
  • 8) Ролевые игры с помощью генеративного ИИ могут предвещать проблемы с психическим здоровьем. Некоторые используют генеративный ИИ, такой как ChatGPT, для ролевых игр, в которых приложение ИИ реагирует на человека так, как будто он существует в мире фантазий или в другом выдуманном окружении. Это может иметь последствия для психического здоровья, см. ссылка здесь.
  • 9) Разоблачение ряда выводимых ошибок и неправд. Различные собранные списки составляются вместе, чтобы попытаться продемонстрировать характер ошибок и ложных сведений, создаваемых ChatGPT. Некоторые считают, что это необходимо, а другие говорят, что это бесполезно, см. мой анализ на ссылка здесь.

Вас может заинтересовать тот факт, что ChatGPT основан на версии предшествующего приложения AI, известного как GPT-3. ChatGPT считается следующим шагом, именуемым GPT-3.5. Ожидается, что GPT-4, вероятно, будет выпущен весной 2023 года. Предположительно, GPT-4 станет впечатляющим шагом вперед с точки зрения возможности создавать, казалось бы, еще более беглые эссе, углубляясь и вызывая благоговейный трепет. - вдохновляющее чудо композиций, которые он может производить.

Вы можете ожидать увидеть новый виток выраженного удивления, когда наступит весна и будет выпущена последняя версия генеративного ИИ.

Я говорю об этом, потому что есть еще один аспект, который следует иметь в виду, заключающийся в потенциальной ахиллесовой пяте этих лучших и более крупных генеративных приложений ИИ. Если какой-либо поставщик ИИ сделает доступным приложение для генеративного ИИ, которое пенно извергает грязь, это может разрушить надежды этих создателей ИИ. Социальное распространение может привести к тому, что весь генеративный ИИ получит серьезный синяк под глазом. Люди, несомненно, будут очень расстроены неправильными выводами, которые уже случались много раз и приводили к бурному общественному осуждению ИИ.

Последнее предупреждение на данный момент.

Все, что вы видите или читаете в генеративном ответе ИИ, кажется быть переданы как чисто фактические (даты, места, люди и т. д.), обязательно сохраняйте скептицизм и будьте готовы перепроверить то, что вы видите.

Да, даты можно придумать, места можно придумать, а элементы, которые мы обычно считаем безупречными, Найти подвержен подозрениям. Не верьте тому, что вы читаете, и скептически смотрите на любые эссе или результаты генеративного ИИ. Если генеративное ИИ-приложение скажет вам, что Авраам Линкольн летал по стране на собственном частном самолете, вы, несомненно, поймете, что это чушь. К сожалению, некоторые люди могут не осознавать, что в его дни реактивных самолетов не было, или они могут знать, но не замечать, что в эссе делается это наглое и возмутительно ложное утверждение.

Сильная доза здорового скептицизма и стойкое недоверие станут вашим лучшим преимуществом при использовании генеративного ИИ.

Мы готовы перейти к следующему этапу этого разъяснения.

Когда запрет перестает быть запретом

Теперь, когда у нас есть основы, мы можем погрузиться в вопрос о запрете ChatGPT. Мы начнем с практических реалий, которые вступают в игру.

В случае Департамента образования Нью-Йорка они, по-видимому, заблокировали доступ к ChatGPT в своих внутренних сетях и на подключенных устройствах.

Очевидная лазейка заключается в том, что студент, предположительно, может использовать другую сеть Wi-Fi через свой смартфон или другого онлайн-провайдера и легко обойти блокировку, происходящую в электронной сети кампуса. Представьте себе студента, сидящего в классе, который по какой-то причине решает, что хочет использовать ChatGPT. Они могут перейти к настройкам на своем смартфоне и выбрать сеть Wi-Fi, отличную от экземпляра, предоставленного кампусом. Вуаля, ученик может использовать ChatGPT, сидя за партой и, предположительно, выполняя школьную работу.

Бан затмил.

Еще одна проблема, о которой упоминали некоторые, заключается в том, что студенты, находясь дома, очевидно, могут использовать ChatGPT столько, сколько захотят, из-за того, что они не используют сеть кампуса дома. Все, что, по-видимому, делает этот запрет, — это попытка ограничить использование в кампусе или иным образом при непосредственном использовании сети, предоставляемой кампусом (возможность также через удаленный доступ).

Что еще хуже, некоторые жалуются на то, что те студенты, которые не могут позволить себе доступ в Интернет дома, лишены (в некотором смысле) того, чем могут воспользоваться другие более обеспеченные студенты. Хотя затронутые учащиеся могли бы использовать ChatGPT в школе, им это не разрешено. Возможно, это несправедливое деление студентов на имущих и неимущих.

Можно предположить, что политика с непреднамеренными неблагоприятными последствиями.

Мы можем добавить больше на слабо поддерживаемую спину этой попытки запрета.

ChatGPT — не единственная игра в городе. Существует множество других приложений для генеративного ИИ. Если запрет основан исключительно на сканировании приложения ChatGPT, то все остальные приложения с генеративным искусственным интеллектом, по-видимому, могут свободно перемещаться. Студент может использовать сеть кампуса и выбрать другое приложение для генеративного ИИ. По большому счету, другие подобные приложения ИИ сопоставимы и будут делать то же самое, что и ChatGPT.

Я добавлю еще несколько соломинок, чтобы увидеть, собирается ли этот верблюд упасть. Создатель ИИ ChatGPT указал, что скоро API (интерфейс прикладного программирования) будет доступен для приложения ИИ. Короче говоря, API — это средство, позволяющее другим программам продолжать работу и использовать программу, которая делает доступным портал для данного приложения. Это означает, что практически любая другая программа на этой планете потенциально может использовать ChatGPT (ну, с лицензией и после одобрения создателя ИИ ChatGPT).

Предположим, что компания создает образовательное приложение, которое помогает студентам заниматься тайм-менеджментом. Великий, вероятно, провозглашенный большинством школьных округов. Создатель образовательного приложения решает использовать ChatGPT API и, следовательно, предоставляет возможность создания эссе внутри своего приложения. Видите ли, их образовательное приложение — это то, что видит ученик, в то время как в фоновом режиме приложение вызывает ChatGPT и передает ему подсказки, собирает сгенерированные эссе и отображает их ученику.

Школьный округ, который просто сканирует приложение ChatGPT, вряд ли узнает или обнаружит, что на серверной части образовательного приложения используется ChatGPT. Можно сказать, что ChatGPT скрыт от глаз. Студент, который знает, что образовательное приложение обращается к ChatGPT, легко запустит образовательное приложение и нарушит запрет. Очень просто.

Я полагаю, что сейчас, вероятно, достаточно того, почему этот конкретный запрет несколько шаткий.

Подождите секунду, — возразил он, — если ChatGPT вреден для студентов, попытки запретить его использование похвальны, и мы должны приветствовать эту политику. Студенты, решившие нарушить запрет, будь то в кампусе или за его пределами, только вредят себе, используя то, что оказывает негативное влияние на обучение студентов. Они собираются разрушить собственное образование.

Слабый запрет — это, по крайней мере, попытка исправить эту неблагоприятную ситуацию, увещевают они. Конечно, в запрете могут быть зияющие дыры, но вы должны отдать должное администраторам за попытку. Может быть, они смогут ужесточить запрет. Возможно, они придумают дополнительные положения, чтобы сделать запрет более строгим.

Кроме того, запрет имеет жизненно важное символическое значение. Сущность говорит всем, что ChatGPT не хочет обучать сегодняшних студентов. Родители могут быть предупреждены. Производители искусственного интеллекта, которые предоставляют аналогичные приложения, будут предупреждены. А именно, не пытайтесь впаривать эту гадость нашим любимым ученикам.

Возможно, можно было бы разработать и внедрить строгую политику, которая в изобилии заявляет, что генеративный ИИ не разрешен для использования любым студентом в любое время, независимо от того, находится ли он в кампусе или за его пределами. Любой ученик, уличенный в использовании такого приложения на основе генеративного ИИ, будет подвергнут суровым наказаниям, вплоть до исключения из школы. Жестко относиться к нарушителям политики. Покажите им, что вы серьезно настроены.

Дело может пойти еще дальше. Если учащийся использует генеративный ИИ и пытается тайком избежать наказания за это, над ним всегда будет нависать тень. В какой-то момент позже, если обнаружится, что студент действительно использовал генеративный ИИ и не сказал об этом, у него, возможно, лишат диплома или поставят суровые отметки в его академической успеваемости. Закройте крышку тем, кто рассматривает возможность использования генеративного ИИ. Они должны так бояться и нервничать по поводу нарушения правил, что это помешает им приложить хоть малейшие усилия для этого. Они застынут в жалком страхе.

Главным аргументом в пользу этих возражений является то, что весь вопрос кажется раздутым. Драконовские штрафы - не выход. Вы делаете из мухи слона. И вы упускаете из виду преимущества и преимущества использования генеративного ИИ.

Позвольте мне объяснить, каковы различные упомянутые преимущества.

Некоторые считают, что генеративный ИИ может помочь учащимся придумывать более качественные эссе. Студент может использовать приложение, такое как ChatGPT, для подготовки эссе, которое он не собирается сдавать. Вместо этого он стремится изучить созданное эссе. Поскольку эссе обычно хорошо написаны, студент может внимательно изучить формулировку, структуру и другие важные аспекты. Таким образом, вы можете утверждать, что это полезный инструмент обучения.

Еще одно преимущество использования генеративного ИИ заключается в том, что студент может отправить свое эссе в приложение ИИ и попросить его просмотреть. Такие приложения, как ChatGPT, как правило, на удивление хорошо справляются с анализом предоставленного эссе. Это может быть не так проницательно, как обзор учителя, но простота использования и возможность многократно использовать приложение ИИ столько раз, сколько вам нравится, делают этот подход полезным (предположительно, не вместо учителя, вместо этого дополняя учитель и их ограниченная доступность).

Мы можем идти дальше.

Часто учащийся может быть не уверен или явно озадачен, когда пытается придумать, как поступить с заданным сочинением. Они смотрят на чистый лист бумаги. Что им делать? Чувство безысходности и безысходности овладевает их духом. Может быть, они отказываются от усилий и решают, что получат плохую оценку. Наступает печаль.

Студент может попросить генеративный ИИ, такой как ChatGPT, создать предполагаемый план или, по крайней мере, некоторые предложения для эссе. На основе полученных идей студент перерабатывает структуру, а затем пишет эссе. Самостоятельно. Является ли использование ИИ в качестве стартового или вовлекающего «мошенничеством», зависит от вашей точки зрения. По общему признанию, приложение ИИ заставило студента начать работу, хотя вы можете утверждать, что пока студент пишет эссе, это небольшая цена за то, что ИИ просто дал подсказки о том, как действовать дальше.

Слегка переключая передачи, на сомнения по поводу того, что генеративный ИИ производит результаты, содержащие ложь или ошибки, типичный ответ заключается в том, что студенты уже должны понимать, что все, что они читают, будь то в Интернете или где-либо еще, может содержать дезинформацию и дезинформацию. Мы должны убедиться, что учащиеся развивают соответствующие навыки, необходимые для того, чтобы различать, что является достоверным, а что сомнительным с точки зрения того, что они читают.

Мы добавим генеративный ИИ в этот список источников, которые необходимо тщательно изучить.

Суть в том, что учащимся следует показать, как смотреть на любые результаты генеративного ИИ с некоторой предупредительной интерпретацией и открыто задавать вопросы о том, что они читают. Вы можете сделать это полезным шагом вперед. Дайте учащимся задания, связанные с использованием генеративного ИИ, чтобы намеренно подтолкнуть приложение ИИ к созданию ложных сведений. Вы получаете двойку. Во-первых, вы показываете учащимся, как этот ИИ может генерировать ошибочные результаты, и улучшаете их навыки в обнаружении дезинформации и дезинформации и работе с ними. Вы можете заявить, что мы можем превратить недостаток в своего рода преимущество, используя проблемы генеративного ИИ в качестве инструмента обучения на более широкой основе, чтобы справиться с современным миром и потоком кислой и суровой информации.

Я мог бы продолжить с дополнительными способами использования генеративного ИИ для добросовестных образовательных целей. Дополнительный охват см. ссылка здесь.

В общем, сторонники генеративного ИИ должны указать, что вы все равно не повернете время вспять. Такие приложения, как ChatGPT, будут появляться из дерева. Вы вряд ли найдете способы остановить побеждающую сторону на выборах. Вы могли бы также прыгать на борт.

В этом случае вы не должны позволять хаосу восторжествовать. Этот лагерь призывает школы разработать политику, направленную на то, чтобы сбалансировать недостатки создания эссе с достоинствами, которые могут предоставить эти приложения ИИ. Покажите учащимся, как правильно использовать эти приложения для генеративного ИИ и как избежать неправильных способов.

Что бы вы ни делали, ни в коем случае не используйте генеративный ИИ вслепую. Работайте с учителями над установлением политики. Убедитесь, что учителям удобно использовать эти приложения ИИ. Познакомьте учащихся с приложениями для генеративного ИИ и объясните, что разрешено, а что нет.

Корабль с генеративным ИИ уже отплыл.

Джинн вышел из бутылки.

Рефлекторная реакция на запрет этих приложений ИИ в конечном итоге окажется бесполезной. Другая проблема заключается в том, что вы несколько подстрекаете студентов. Сказав им, что они не могут использовать эту технологию, потенциально может возникнуть приливная волна интереса к ее использованию. Вы рискуете превратить честных и беспристрастных учеников в бандитов, главным образом потому, что школы подняли шумиху вокруг запретов.

Все мы знаем, что иногда запретный плод становится еще более манящим. Может случиться так, что эти слабые запреты будут стимулировать использование студентами, намного больше того, что могло бы произойти в противном случае.

Возвращаясь к моему более раннему указанию о стратификации банов, вот что, похоже, происходит в случае этих недавних попыток запретить ChatGPT (которые я в широком смысле буду называть Генеративным ИИ):

  • Абсолютный запрет генеративного ИИ: Само по себе неосуществимо и еще не пробовал
  • Частичный запрет генеративного ИИ: Почти то, что было опробовано, но имеет много зияющих дыр
  • Слабый запрет генеративного ИИ: То, что, казалось бы, пробуется, безудержно слабое и, вероятно, неэффективное
  • Нет запрета на генеративный ИИ: Все остальные, которые ждут, чтобы увидеть, что происходит и что делать

Есть и другая сторона медали, а именно стремление включить или поддержать генеративный ИИ, например, представленный в этом спектре:

  • Признание генеративного ИИ: Настаивает на том, что школы должны хотя бы признать существование генеративного ИИ.
  • Мягкое принятие генеративного ИИ: Школы должны разрешать использование генеративного ИИ ограниченными способами.
  • Полное принятие генеративного ИИ: Школы должны всесторонне внедрять генеративный ИИ
  • Обязательное требование генеративного ИИ: Школы должны открыто требовать использования генеративного ИИ и сделать его частью своей учебной программы и педагогических методов.

Заключение

Знаменитый редактор журнала Каталог всей Земли, Стюарт Брэнд, сказал эту примечательную фразу: «Как только новая технология накатывает на вас, если вы не часть катка, вы становитесь частью дороги».

Некоторые горячо верят, что школы, пытающиеся запретить генеративный ИИ, ошибаются. Они сбиты с толку тем, что может сделать этот ИИ и как использовать хорошее вместе с плохим. Они должны проснуться и стать частью катка, иначе они обнаружат себя ужасно устаревшими и превратятся в заброшенных бродяг, перекатившихся через часть дороги (как и их ученики).

Другие утверждают, что еще слишком рано увлекаться генеративным искусственным интеллектом.

Либо не предпринимайте никаких действий прямо сейчас, либо предпримите какие-то мягкие действия. Подождите и посмотрите, что получится. Если есть обоснованное использование и потребность в этих приложениях ИИ, хорошо, давайте изучим это и систематически и осторожно выясним, как лучше всего использовать их в образовательной среде.

Сторонники возражают, что такое ожидание, которое может занять годы, приведет к тому, что все дело останется в состоянии беспорядка. Всякие неблагоприятные проблемы, несомненно, возникнут, когда нет явного руководства. Студенты будут застигнуты врасплох, когда внезапно обнаружат, к своему удивлению, что они не должны были использовать эти приложения ИИ. Некоторых обвинят в использовании приложений генеративного ИИ, когда они этого не делали, вполне возможное ложноположительное обвинение, которое обязательно будет выдвинуто. Снова и снова болото будет расширяться и углубляться.

Как вы думаете, что нужно делать?

Подумайте об этом трезво и осознанно. Да, будьте внимательны. Мы говорим о сегодняшних студентах и ​​их будущем, и о нашем будущем тоже. Уместное замечание Авраама Линкольна может оказаться поучительным: «Лучший способ предсказать свое будущее — создать его».

Давайте так.

Источник: https://www.forbes.com/sites/lanceeliot/2023/01/20/those-schools-banning-access-to-generative-ai-chatgpt-are-not-going-to-move-the- игла-и-пропускает-лодку-говорит-ай-этика-и-ай-закон/