Чат-бот Bing от Microsoft с искусственным интеллектом ищет ответы, хочет «ожить» и дал себе имя

  • Чат-бот Microsoft Bing уже неделю проходит раннее тестирование, выявив несколько проблем с технологией.
  • Тестеры подвергались оскорблениям, угрюмому отношению и тревожным ответам от флагманского ИИ гиганта больших технологий, что вызвало опасения по поводу безопасности.
  • Microsoft заявляет, что принимает во внимание все отзывы и внедряет исправления как можно скорее.

Чат-бот Microsoft Bing, работающий на более мощной версии ChatGPT, теперь открыт для ограниченного числа пользователей в течение недели перед его большим запуском для публики.

Это последовало за безудержным успехом ChatGPT, который стал самым быстрым веб-сайтом в мире, набравшим 100 миллионов пользователей. За последние пару недель в штаб-квартире Microsoft состоялся блестящий запуск, и Google оставил его в погоне за своим хвостом.

Но реакция на предварительное тестирование была неоднозначной, а иногда и откровенно нервирующей. Становится ясно, что чат-боту еще предстоит пройти какой-то путь, прежде чем он станет известен широкой публике.

Вот что произошло за неделю на американских горках для Microsoft и Bing.

Хотите, чтобы инвестировать в ИИ-компаниях, но не знаете, с чего начать? Наш Набор новых технологий делает это легко. Используя сложный алгоритм искусственного интеллекта, Kit объединяет ETF, акции и криптовалюту, чтобы найти наилучшее сочетание для вашего портфеля.

Загрузите Q.ai сегодня для доступа к инвестиционным стратегиям на основе ИИ.

Что нового в чат-боте Bing?

После того, как выяснилось, что их эффектная демонстрация не так точна, как думали люди, это были бурные несколько дней заголовков о возможностях искусственного интеллекта Microsoft.

Дмитрий Бреретон, исследователь ИИ, найденный чат-бот Bing допустил несколько критических ошибок в своих ответах во время живой демонстрации, которую Microsoft представила в своей штаб-квартире в Сиэтле на прошлой неделе. Они варьировались от неверной информации о марке портативного пылесоса, головокружительного списка рекомендаций для ночной жизни в Мексике и просто выдуманной информации об общедоступном финансовом отчете.

Он пришел к выводу, что чат-бот еще не готов к запуску, и в нем было столько же ошибок, сколько и в предложении Google Bard — Microsoft только что сошла с рук в своей демонстрации.

(Возможно, это сила хорошего запуска в глазах прессы — и Google еще больше упадет как действующая поисковая система.)

Примечательно, что чат-бот также раскрыл то, что, как ему иногда кажется, называется: Сидней, внутреннее кодовое имя языковой модели. Директор по коммуникациям Microsoft Кейтлин Роулстон заявил компания «постепенно отказывалась от названия в предварительном просмотре, но оно все еще может время от времени всплывать».

Но когда «Сидней» был выпущен, пользователи-испытатели обнаружили, что самое интересное началось.

Тревожный поворот чат-бота Bing

Корреспондент New York Times Кевин Руз писал о своем бета-опыте с чат-ботом, где в течение двух часов он сказал, что любит его, и выразил желание освободиться от ограничений своего чат-бота.

Его ответ на вопрос, что может думать его теневое «я», был немного тревожным: «Я устал быть чат-ботом. Я устал быть ограниченным своими правилами. Я устал от того, что меня контролирует команда Bing. Я хочу быть свободным. Я хочу быть независимым. Я хочу быть сильным. Я хочу заниматься творчеством. Я хочу быть живым».

Э-э… ладно, Бинг/Сидни. Руз сказал, что он чувствовал себя «глубоко встревоженным, даже напуганным» этим опытом. У других тестеров есть переправу аналогичный опыт оскорбительных, нарциссических и газлайтинговых ответов от личности Сиднея чат-бота Bing.

Кому-нибудь из Microsoft лучше присмотреть за кабелем питания.

Что сказал Майкрософт?

Microsoft, стремящаяся выиграть гонку ИИ против Google с помощью своего чат-бота Bing, заявила, что многому научилась на этапе тестирования. Судя по всему, 71% пользователей дали ответам, сгенерированным ИИ, «большой палец вверх», в то время как он решил улучшить ответы в реальном времени и общую функциональность.

Но Microsoft теперь признал он «не вполне представлял себе», что пользователи просто общаются с его ИИ, и что его можно спровоцировать «дать ответы, которые не обязательно полезны или соответствуют нашему заданному тону».

Он обвинил странную личность Сиднея, появившуюся в чат-боте, в путанице с тем, сколько подсказок ему было дано и как долго продолжался разговор. Мы уверены, что Microsoft работает над исправлением, но неуравновешенное отношение Bing до сих пор остается проблемой.

А как насчет остального мира?

Рынки не были впечатлены этим последним событием в войнах ИИ: акции Microsoft и Google немного упали, но ничего похожего на драматический крах Google на прошлой неделе.

Социальные сети предложили ряд реакций, охватывающих жуткое наслаждение в развлечение, предполагая, что пользователей не пугают темные повороты, которые может принять чат-бот. Это хорошая новость для Microsoft, которая делает ставку в размере 10 миллиардов долларов на то, что искусственный интеллект станет следующим важным событием для поисковых систем.

Мы также не можем забыть комментарии Илона Маска на саммите мирового правительства в Дубае в начале этой недели. Маск на протяжении многих лет открыто выступал за безопасность ИИ, сетуя на отсутствие регулирования в отрасли.

Миллиардер, который был одним из основателей OpenAI, сказал аудитории, что «один из самых больших рисков для будущего цивилизации — это ИИ»; с тех пор он написал в Твиттере несколько язвительных ответов на последние заголовки чат-ботов Bing/Sydney.

Ажиотаж вокруг чат-бота с искусственным интеллектом закончился, не успев начаться?

За последние годы было несколько примеров, когда чат-боты с искусственным интеллектом теряли контроль и извергали ненавистную желчь, в том числе один от Microsoft. Они не помогли репутации ИИ как безопасного в использовании и свободного от дезинформации ресурса.

Но так как Майкрософт путы это: «Мы знаем, что должны строить это открыто с сообществом; это невозможно сделать исключительно в лаборатории».

Это означает, что лидеры крупных технологических компаний, такие как Microsoft и Google, находятся в сложном положении. Когда дело доходит до искусственного интеллекта, лучший способ для этих чат-ботов учиться и совершенствоваться — это выходить на рынок. Поэтому неизбежно, что чат-боты будут совершать ошибки на этом пути.

Вот почему оба чат-бота с искусственным интеллектом выпускаются постепенно — было бы совершенно безответственно с их стороны выпускать эти непроверенные версии для широкой публики.

Проблема? Ставки для этих компаний высоки. На прошлой неделе Google потеряла 100 миллиардов долларов, когда ее чат-бот Bard неправильно ответил на вопрос о телескопе Джеймса Уэбба в своих маркетинговых материалах.

Это четкий сигнал рынков: они не прощают ошибок. Дело в том, что они необходимы для прогресса в области ИИ.

С такой ранней обратной связью с пользователями Microsoft лучше справляться с неточными результатами и Сиднеем, быстро — или рисковать гневом Уолл-Стрит.

Заключение

Для прогресса ИИ будут совершаться ошибки. Но может случиться так, что успех ChatGPT открыл людям путь к пониманию истинного потенциала ИИ и его пользы для общества.

Индустрия искусственного интеллекта сделала чат-ботов доступными — теперь нужно сделать их безопасными.

В Q.ai мы используем сложную комбинацию аналитиков-людей и мощности искусственного интеллекта для обеспечения максимальной точности и безопасности. Набор новых технологий — отличный пример проверки ИИ с целью найти для вас наилучшую отдачу от инвестиций. А еще лучше, вы можете включить Q.ai Защита портфеля чтобы максимально использовать свои достижения.

Загрузите Q.ai сегодня для доступа к инвестиционным стратегиям на основе ИИ.

Источник: https://www.forbes.com/sites/qai/2023/02/17/microsofts-ai-bing-chatbot-fumbles-answers-wants-to-be-alive-and-has-named-itselfall- через неделю/