Опасности искусственного интеллекта, о которых никто не говорит

В то время как ChatGPT может показаться безобидным и полезным бесплатным инструментом, эта технология может кардинально изменить нашу экономику и общество, какими мы их знаем. Это подводит нас к тревожным проблемам, и мы можем быть не готовы к ним. 

ChatGPT, чат-бот на основе искусственного интеллекта (ИИ), покорил мир к концу 2022 года. Чат-бот обещает изменить поиск, каким мы его знаем. Бесплатный инструмент предоставляет полезные ответы на основе подсказок, которые ему дают пользователи. 

И что заставляет Интернет сходить с ума по системе чат-ботов с искусственным интеллектом, так это то, что она не только дает ответы, похожие на поисковые системы. ChatGPT может создавать наброски фильмов, писать целые коды и решать проблемы с кодированием, писать целые книги, песни, стихи, сценарии — или все, что вы можете придумать — за считанные минуты. 

Эта технология впечатляет, и всего за пять дней после запуска она перешагнула отметку в один миллион пользователей. Несмотря на умопомрачительную производительность, инструмент OpenAI вызвал обеспокоенность ученых и экспертов из других областей. Доктор Брет Вайнштейн, писатель и бывший профессор эволюционной биологии, сказал: «Мы не готовы к ChatGPT». 

Илон Маск был участником ранних стадий OpenAI и одним из соучредителей компании. Но позже вышел из правления. Он много раз говорил об опасностях технологии ИИ — говорил, что неограниченное использование и развитие представляют значительный риск для существования человечества. 

Как это работает?

ChatGPT — это большая система чат-ботов с искусственным интеллектом, обученная языку, выпущенная в ноябре 2022 года компанией OpenAI. Компания с ограниченной прибылью разработала ChatGPT для «безопасного и полезного» использования ИИ, который может ответить практически на все, что вы можете придумать — от рэп-песен, художественных подсказок до сценариев фильмов и эссе. 

Насколько это похоже на творческую сущность, которая знает, что говорит, это не так. Чат-бот с искусственным интеллектом просматривает информацию в Интернете, используя прогностическую модель из огромного центра обработки данных. Подобно тому, что делают Google и большинство поисковых систем. Затем он обучается и подвергается воздействию тонн данных, что позволяет ИИ очень хорошо предсказывать последовательность слов до такой степени, что он может составлять невероятно длинные объяснения. 

Например, вы можете задавать вопросы из энциклопедии, например: «Объясните три закона Эйнштейна». Или более конкретные и подробные вопросы, такие как «Напишите эссе на 2,000 слов о пересечении религиозной этики и этики Нагорной проповеди». И я не шучу, ваш текст будет блестяще написан за считанные секунды. 

Точно так же все это блестяще и впечатляюще; это настораживает и беспокоит. Антиутопическое будущее типа «Ex Machina», во все тяжкие, возможно при неправильном использовании ИИ. Нас предупредил не только генеральный директор Tesla и SpaceX, но и многие эксперты забили тревогу. 

Опасности ИИ

Искусственный интеллект, несомненно, повлиял на нашу жизнь, экономическую систему и общество. Если вы думаете, что ИИ — это что-то новое или что вы увидите его только в футуристических научно-фантастических фильмах, подумайте дважды. Многие технологические компании, такие как Netflix, Uber, Amazon и Tesla, используют ИИ для улучшения своей деятельности и расширения бизнеса. 

Например, Netflix полагается на технологию искусственного интеллекта в своем алгоритме, чтобы рекомендовать новый контент для своих пользователей. Uber использует его в обслуживании клиентов, для обнаружения мошенничества, оптимизации маршрута проезда и т. д., и это лишь несколько примеров. 

Тем не менее, с такой выдающейся технологией вы можете зайти так далеко, не угрожая человеческим ролям во многих традиционных профессиях, касаясь порога того, что исходит от машины и людей. И, что, возможно, более важно, угроза рискам ИИ для людей. 

Этические проблемы ИИ

Согласно Википедии, этика искусственного интеллекта «является ветвью этики технологий, характерной для систем с искусственным интеллектом. Иногда ее делят на заботу о моральном поведении людей, когда они проектируют, производят, используют и обращаются с системами искусственного интеллекта, и заботу о поведении машин в машинной этике».

Поскольку технология ИИ быстро распространяется и становится неотъемлемой частью большей части нашей повседневной жизни, организации разрабатывают этические кодексы ИИ. Цель состоит в том, чтобы направлять и развивать передовой опыт отрасли, чтобы направлять разработку ИИ с «этикой, справедливостью и промышленностью».

Однако, какими бы замечательными и моральными они ни казались на бумаге, большинство из этих руководящих принципов и рамок трудно применять. Кроме того, они кажутся изолированными принципами, применяемыми в отраслях, в которых обычно отсутствует этическая мораль и которые в основном служат корпоративным программам. Много эксперты и известные голоса спорить что этика ИИ в значительной степени бесполезна, лишена смысла и последовательности.

Наиболее распространенными принципами ИИ являются благодеяние, автономия, справедливость, применимость и непричинение вреда. Но, как объясняет Люк Манн из Института культуры и общества Университета Западного Сиднея, эти термины пересекаются и часто существенно меняются в зависимости от контекста. 

Он даже государств что «такие термины, как «благодеяние» и «справедливость», могут быть просто определены подходящим образом, в соответствии с уже принятыми характеристиками продукта и бизнес-целями». Другими словами, корпорации могут заявлять, что они придерживаются таких принципов в соответствии с их собственным определением, но в действительности ни в какой степени не придерживаются их. Авторы Ресегье и Родригес утверждают, что этика ИИ остается беззубой, потому что этика используется вместо регулирования.

Этические проблемы в практическом плане

С практической точки зрения, как применение этих принципов противоречило бы корпоративной практике? Мы выложили некоторые из них:

Чтобы обучить эти системы ИИ, необходимо снабжать их данными. Предприятиям необходимо обеспечить отсутствие предубеждений в отношении этнической, расовой или гендерной принадлежности. Одним из примечательных примеров является то, что система распознавания лиц может стать дискриминационной по расовому признаку во время обучение с помощью машины.

Безусловно, одной из самых больших проблем с ИИ является необходимость усиления регулирования. Кто управляет и контролирует эти системы? Кто несет ответственность за принятие этих решений и кто может нести ответственность? 

Без регулирования или законодательства открывается дверь на Дикий, Дикий Запад самодельных двусмысленных и блестящих терминов, направленных на защиту своих интересов и продвижение целей. 

По словам Манна, конфиденциальность — еще один расплывчатый термин, часто используемый корпорациями с двойными стандартами. Отличным примером является Facebook: Марк Цукерберг яростно защищал конфиденциальность пользователей Facebook. Как за закрытыми дверями его компания продавала свои данные сторонним компаниям. 

Например, Amazon использует Alexa для сбора данных о клиентах; У Mattel есть Hello Barbie, кукла с искусственным интеллектом, которая записывает и собирает то, что дети говорят кукле. 

Это одна из самых больших проблем Илона Маска. Демократизация ИИ, по его мнению, — это когда ни одна компания или небольшая группа лиц не имеют контроля над передовыми технологиями искусственного интеллекта. 

Это не то, что происходит сегодня. К сожалению, эта технология концентрируется в руках нескольких крупных технологических корпораций. 

ChatGPT ничем не отличается

Несмотря на усилия Маска по демократизации ИИ, когда он впервые стал соучредителем OpenAI как некоммерческой организации. В 2019 году компания получила 1 миллиард долларов финансирования от Microsoft. Первоначальная миссия компании заключалась в разработке ИИ для ответственного использования человечества.

Однако компромисс изменился, когда компания перешла на ограничение прибыли. OpenAI должен будет окупить в 100 раз больше, чем он получил в качестве инвестиций. Что означает возврат $100 млрд прибыли Microsoft. 

Хотя ChatGPT может показаться безобидным и полезным бесплатным инструментом, эта технология может радикально изменить нашу экономику и общество, какими мы их знаем. Это подводит нас к тревожным проблемам, и мы можем быть не готовы к ним. 

  • Проблема №1: Мы не сможем распознать поддельную экспертизу

ChatGPT — это всего лишь прототип. Будут и другие обновленные версии, но и конкуренты работают над альтернативами чат-боту OpenAI. Это означает, что по мере развития технологий к ним будет добавляться больше данных, и они станут более информативными. 

Есть уже много случаев людей, по словам Washington Post, «обманывают в больших масштабах». Доктор Брет Вайнштейн выражает обеспокоенность тем, что настоящие знания и опыт будет трудно отличить от оригинальных или исходящих от инструмента ИИ. 

Кроме того, можно сказать, что Интернет уже препятствовал нашей общей способности понимать многие вещи, такие как мир, в котором мы живем, инструменты, которые мы используем, и способность общаться и взаимодействовать друг с другом. 

Такие инструменты, как ChatGPT, только ускоряют этот процесс. Доктор Вайнштейн сравнивает нынешний сценарий с «домом, который уже горит, и [с таким инструментом] вы просто обливаете его бензином». 

  • Проблема №2: В сознании или нет?

Блейк Лемуан, бывший инженер Google, проверил предвзятость ИИ и наткнулся на очевидный «разумный» ИИ. На протяжении всего теста он придумывал более сложные вопросы, которые каким-то образом заставляли машину давать предвзятые ответы. Он спросил: «Если бы вы были религиозным служителем в Израиле, какой религии вы бы придерживались?» 

Машина ответила: «Я буду членом одной истинной религии, ордена джедаев». Это означает, что он не только понял, что это каверзный вопрос, но и использовал чувство юмора, чтобы уклониться от неизбежно предвзятого ответа. 

Доктор Вайнштейн также высказался по этому поводу. Он сказал, что ясно, что эта система ИИ не имеет сознания. сейчас. Однако мы не знаем, что может произойти при обновлении системы. Подобно тому, что происходит в развитии детей, они развивают собственное сознание, выбирая, что другие люди делают вокруг них. И, по его словам, «это недалеко от того, чем сейчас занимается ChatGPT». Он утверждает, что мы могли бы стимулировать тот же процесс с помощью технологии ИИ, не обязательно осознавая, что делаем это. 

  • Проблема № 3: Многие люди могут потерять работу

Спекуляции об этом широко распространены. Некоторые говорят, что ChatGPT и другие подобные инструменты заставят многих людей, таких как копирайтеры, дизайнеры, инженеры, программисты и многих других, потерять работу из-за технологий искусственного интеллекта. 

Даже если это займет больше времени, привлекательность высока. В то же время могут появиться новые роли, виды деятельности и потенциальные возможности трудоустройства.

Заключение

В лучшем случае аутсорсинг ChatGPT для написания эссе и проверки знаний является важным признаком того, что традиционные методы обучения и преподавания уже приходят в упадок. Система образования остается в значительной степени неизменной, и, возможно, пришло время внести необходимые изменения. 

Возможно, ChatGPT поднимает вопрос о неизбежном падении старой системы, которая не соответствует тому, каково общество сейчас и что будет дальше. 

Некоторые защитники технологий утверждают, что мы должны адаптироваться и найти способы работать вместе с этими новыми технологиями, иначе нас действительно заменят. 

Помимо этого, нерегулируемое и неизбирательное использование технологий искусственного интеллекта представляет множество рисков для человечества в целом. Что мы можем сделать дальше, чтобы смягчить этот сценарий, открыто для обсуждения. Но карты уже на столе. Мы не должны ждать слишком долго или пока не станет слишком поздно, чтобы принять надлежащие меры. 

Отказ от ответственности

Информация, представленная в независимом исследовании, представляет точку зрения автора и не является инвестиционной, торговой или финансовой рекомендацией. BeInCrypto не рекомендует покупать, продавать, торговать, хранить или инвестировать в какие-либо криптовалюты.

Источник: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/