Microsoft усиливает безопасность чат-ботов с искусственным интеллектом, чтобы помешать мошенникам

Корпорация Microsoft добавила ряд функций безопасности в Azure AI Studio, которые со временем должны продолжать снижать вероятность того, что ее пользователи настраивают модели ИИ в режим, который заставит их действовать ненормально или ненадлежащим образом. Многонациональная технологическая компания, базирующаяся в Редмонде, Вашингтон изложил улучшения в своем блоге, подчеркнув необходимость гарантировать целостность взаимодействия ИИ и укрепление доверия к пользовательской базе.

Оперативные щиты и многое другое 

Среди основных разработок — создание «оперативных щитов» — технологии, предназначенной для обнаружения и уничтожения оперативных инъекций во время общения с чат-ботами искусственного интеллекта. Это так называемые джейлбрейки, которые, по сути, представляют собой входные данные пользователей, которые намеренно формируются таким образом, чтобы вызвать нежелательную реакцию моделей ИИ.

Например, Microsoft косвенно играет свою роль, осуществляя быстрые инъекции, где возможно выполнение злых приказов, и подобный сценарий может привести к серьезным последствиям для безопасности, таким как кража данных и взлом системы. По словам Сары Берд, директора по продуктам Microsoft по ответственному ИИ, эти механизмы являются ключом к обнаружению и реагированию на эти уникальные угрозы в режиме реального времени.

Microsoft добавляет, что скоро на экране пользователя появятся оповещения, которые будут указывать на то, что модель может предоставлять ложную или вводящую в заблуждение информацию, обеспечивая большее удобство для пользователя и доверие.

Укрепление доверия к инструментам искусственного интеллекта 

Усилия Microsoft являются частью более крупной инициативы, призванной вселить в людей уверенность во все более популярном генеративном искусственном интеллекте, который широко применяется в услугах, ориентированных на индивидуальных потребителей и корпоративную клиентуру. Microsoft провела тщательную проверку после того, как столкнулась со случаями, когда пользователи имели возможность заставить чат-бота Copilot выдавать странные или вредные результаты. Это будет подтверждением результата, который показывает необходимость сильной защиты от упомянутых манипулятивных тактик, которые, вероятно, возрастут с появлением технологий искусственного интеллекта и общедоступных знаний. Предсказание и последующее смягчение основаны на распознавании моделей атак, например, когда злоумышленник повторяет вопросы или подсказки в ролевой игре.

Будучи крупнейшим инвестором и стратегическим партнером OpenAI, Microsoft расширяет границы внедрения и создания ответственных и безопасных технологий генеративного искусственного интеллекта. Оба привержены ответственному развертыванию и основополагающим моделям генеративного искусственного интеллекта для обеспечения мер безопасности. Но Берд признал, что эти большие языковые модели, даже несмотря на то, что их начинают рассматривать как основу для большей части будущих инноваций в области ИИ, не защищены от манипуляций.

Для построения этих основ потребуется гораздо больше, чем просто полагаться на сами модели; потребуется комплексный подход к обеспечению безопасности и защиты ИИ.

Microsoft недавно объявила об усилении мер безопасности для своей Azure AI Studio, чтобы продемонстрировать и гарантировать активные шаги, которые предпринимаются для защиты меняющейся ситуации с угрозами ИИ.

Он стремится избежать неправомерного использования ИИ и сохранить целостность и надежность взаимодействия ИИ за счет своевременной проверки и оповещений.

Учитывая постоянное развитие технологии искусственного интеллекта и ее внедрение во многие аспекты повседневной жизни, Microsoft и остальному сообществу искусственного интеллекта пора занять очень бдительную позицию в области безопасности.

Источник: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricsters/