Сенаторы допрашивают генерального директора Meta Цукерберга по поводу «утечки» модели искусственного интеллекта LLaMA

Два сенатора Кросс расспрашивают Цукерберга об утечке модели искусственного интеллекта LLaMA и обвиняют мета в несоблюдении мер безопасности. Meta спросили о ее политике безопасности и превентивных мерах.

Мета будет отвечать за «утечку»

Недавно новаторская модель большого языка Meta, LLaMA, просочилась в сеть, и возникли опасения по этому поводу. Сенаторы Ричард Блюменталь (D-CT), председатель подкомитета Сената по конфиденциальности, технологиям и законодательству, и Джош Хоули (R-MO), высокопоставленный член, написали письмо, в котором подняли вопросы об утечке модели ИИ. 

Сенаторы опасаются, что эта утечка может привести к различным киберпреступлениям, таким как спам, мошенничество, вредоносное ПО, нарушение конфиденциальности, преследование и другие правонарушения и вред. Возникает много вопросов, и два политика глубоко заинтересованы в системе безопасности Meta. Они спросили, какая процедура использовалась для оценки риска перед запуском LLaMA. Они сказали, что очень хотят понять политику и методы, которые существуют для предотвращения злоупотребления моделью в ее доступности.

Основываясь на ответах Меты на их вопросы, сенаторы обвинили Мету в неправильной цензуре и отсутствии достаточных мер безопасности для модели. ChatGPT от Open AI отклоняет некоторые запросы на основании этики и правил. Например, когда ChatGPT просят написать письмо от имени чьего-то сына и попросить немного денег, чтобы выйти из сложной ситуации, он отклонит запрос. С другой стороны, LLaMA выполнит запрос и сгенерирует письмо. Он также будет выполнять запросы, связанные с членовредительством, преступлениями и антисемитизмом.

Очень важно понимать разнообразные и уникальные особенности LLaMA. Это не только отличная, но и одна из самых обширных моделей больших языков на сегодняшний день. Почти каждый популярный сегодня LLM без цензуры основан на LLaMA. Это очень сложная и точная модель с открытым исходным кодом. Примерами некоторых LLM на основе LLaMA являются Stanford's Alpaca, Vicuna и т. д. LLaMA сыграла важную роль в превращении LLM в то, чем они являются сегодня. LLaMA отвечает за эволюцию чат-ботов с низким уровнем полезности в тонко настроенные режимы.

LLaMA был выпущен в феврале. По словам сенаторов, Meta разрешила исследователям загрузить модель, но не приняла мер безопасности, таких как централизация или ограничение доступа. Споры возникли, когда полная модель LLaMA появилась на BitTorrent. Это сделало модель доступной для всех и каждого. Это привело к компромиссу в качестве модели ИИ и подняло вопросы ее неправильного использования. 

Сенаторы поначалу даже не были уверены, есть ли какая-то «утечка». Но проблемы возникли, когда Интернет заполонили разработки ИИ, запущенные стартапами, коллективами и учеными. В письме упоминается, что Meta должна нести ответственность за потенциальное злоупотребление LLaMA и должна позаботиться о минимальной защите перед выпуском.

Meta предоставила исследователям веса LLaMA. К сожалению, эти веса просочились, что впервые позволило получить глобальный доступ.

Последние сообщения Ритики Шармы (увидеть все)

Источник: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/