Момент крика волка об искусственном интеллекте бесполезен

Хотя я изучаю сценарии конца человечества, я считаю, что «письмо эксперта», предлагающее 6-месячный мораторий на ИИ, или более свежее заявление о том, что риск ИИ находится на уровне пандемического и ядерного риска, слишком преувеличены. Еще более дикое мнение о том, что нам нужно отключить ИИ, безответственно. Любое беспокойство должно быть пропорционально риску, с которым мы сталкиваемся. Прямо сейчас мы не находимся в непосредственной опасности от ИИ.

Нынешние ИИ не способны захватить общество. У них нет чувств, и они не заслуживают защиты, как люди. Они не сверхразумны и ни в чем не превосходят людей. На самом деле они вообще не думают. Прямо сейчас, при наличии большого количества данных, ИИ очень хорошо справляется с конкретными задачами, такими как расчеты и прогнозирование. Это не вызывает беспокойства, это особенности, заложенные в этих системах. Обещания ИИ включают в себя решение проблемы рака, преобразование промышленного производства, моделирование будущих сценариев и решение экологических проблем. Сказав это, есть законные причины критиковать нынешние ИИ за использование ресурсов, прозрачность, предвзятость, кибербезопасность и их влияние на занятость в будущем.

ИИ требует больших вычислительных ресурсов, а это означает, что они являются огромной тратой скудной ископаемой энергии. Это нужно решать немедленно. Но это не экзистенциальный вопрос, это вопрос рационального использования ресурсов. Тот факт, что ИИ, которые полагаются на большие и неэффективные модели данных, становится слишком дорогим для отслеживания и изучения академическими кругами или правительством, является реальной проблемой. Но это в ближайшее время поправимо. Консорциумы элитных академических институтов или правительств могут объединиться и совместно использовать вычислительные ресурсы, как они это сделали для суперкомпьютеров.

Модели большого языка (LLM) — это модели искусственного интеллекта, которые могут генерировать тексты на естественном языке из больших объемов данных. Одна из проблем заключается в том, что эти тексты напрямую получены из честного интеллектуального вклада других людей. На самом деле они украдены. В частности, генеративный ИИ рекомбинирует как потребительские, так и организационные данные, а также творческий контент, что является грубым нарушением авторских прав. Это серьезно, но не экзистенциально, и более того, ЕС, лоббисты из Голливуда и «большой пятерки» книгоиздателей уже взялись за дело. Ожидайте, что это замедлит вес ИИ. При нынешнем уровне у ИИ закончатся хорошие обучающие данные задолго до того, как он приблизится к разуму.

Алгоритмы, которые уже используются для расчета наших налогов, выбора наших онлайн-каналов или заключения людей в тюрьму, поразительно непрозрачны. Однако так было годами и не имеет ничего общего с последними разработками в области ИИ. Предвзятость ИИ — это фича, а не баг. Стереотипирование, по сути, является основным подходом, с помощью которого работают такие модели. За исключением того, что предубеждение скрыто в непроницаемых слоях машинных рассуждений, неуловимых для людей, экспертов или нет. Что нам следует подвергнуть сомнению, так это мудрость разработчиков, разработавших такие системы, а не возможности созданной ими системы, которая является данностью. Системы редко бывают лучше, чем мудрость или намерения тех, кто их создает или управляет ими.

Данные обучения ИИ отражают предубеждения, существующие в обществе, из которого эти данные были собраны. Повторное использование плохих обучающих данных — неприятная практика, которая уже загрязняет модели ИИ. Нынешние подходы к ИИ просто усиливают предвзятость, чтобы быстро получить результат. Это, по общему признанию, противоположно тому, чего мы хотим. Мы хотим использовать технологии для защиты от человеческих ошибок. Беспокойство о машинной ошибке — это расточительное использование человеческого интеллекта.

Несмотря на метафору «нейронной сети», современные ИИ ни в коей мере не напоминают мозг. Современные системы ИИ не могут рассуждать по аналогии, как это делают люди. Это хорошо. На самом деле мы можем не хотеть такого выравнивания ИИ, за которое фанатики выступают и пытаются подражать. Машины должны отличаться от людей. Вот как мы можем максимизировать сильные стороны друг друга. И как мы можем держать машины отдельными и обособленными. Машины не должны иметь каких-либо интересов для согласования.

ИИ все чаще представляет серьезную угрозу кибербезопасности как актив для преступников и враждебных государств. Но кибербезопасность — это зрелая отрасль, в которой есть множество экспертов, хорошо подготовленных для решения этой проблемы. Нет причин закрывать ИИ из-за опасений по поводу кибербезопасности.

Нарушение занятости из-за ИИ уже много лет является вопросом политики, сначала с роботами, а теперь с программными системами ИИ. Это означает, что правительства будут готовы справиться с этим. Исследование MIT Work of The Future показало, что опасения по поводу безработицы из-за роботов преувеличены. Люди всегда находили способы работать и будут делать это в будущем. Преобразит ли производство искусственный интеллект? Это уже происходит, но достаточно контролируемым образом.

Время от времени ИИ страдает от раздутых обещаний о текущей функциональности или будущих возможностях. Первые зимы ИИ начались в 1974–1980 годах, когда правительство США прекратило финансирование. Второй был с 1987 по 1993 год, когда затраты выросли, а ИИ не смог выполнить свои высокие обещания.

В ожидании появления новых парадигм в период с 2025 по 2030 год мы, вероятно, вступим в третью зиму ИИ. По крайней мере, по сравнению с жарким AI-летом, которое нам обещают. Причина в том, что, несмотря на шумиху, по всем причинам, изложенным выше, большие языковые модели вот-вот достигнут своей максимальной полезности и в конечном итоге должны быть заменены более элегантными в вычислительном отношении подходами, которые являются более прозрачными.

Одним из таких кандидатов являются гиперпространственные вычисления, которые заставят машины рассуждать более эффективно, потому что они дают машинам семантическое понимание, способность обрабатывать смысл и контекст, лежащие в основе информации реального мира. Прямо сейчас системы ИИ не понимают связи между словами и фразами, они просто умеют догадываться. Этого недостаточно. Со временем нам понадобится воплощенный ИИ, потому что мышление связано с восприятием пространства. Это определенно имеет место в производстве, которое является очень физической игрой. Нам также понадобится ИИ, способный использовать функции человеческой памяти, такие как расстановка приоритетов на основе выдвижения на первый план одной информации и фоновой другой информации. Забывание — это инструмент, который люди используют для абстрактного мышления, отказа от устаревших организационных практик, принятия решений и для того, чтобы оставаться в моменте, и это не просто недостаток. Никакие машины еще не могут сделать это очень хорошо.

А пока нам нужно регулировать, но не в эту секунду. И, когда мы регулируем, нам лучше сделать это хорошо. Плохое регулирование ИИ, вероятно, усугубит ситуацию. Разбудить регулирующие органы перед этой проблемой может быть полезно, но я не уверен, что нынешнее поколение регулирующих органов готово к таким масштабным изменениям, которые потребуются, чтобы справиться с этой задачей. Это повлечет за собой сокращение влиятельных компаний (возможно, всех зарегистрированных на бирже компаний), ограничение использования ИИ в управлении и будет означать огромные изменения в том, как в настоящее время работают потребительские рынки. По сути, нам придется перепрограммировать общество. Это привело бы нас к замедлению роста на несколько десятилетий раньше, чем мы могли бы желать. Проблема прозрачности, связанная с ИИ, может быть более серьезной, чем контрольные переменные, о которых все, кажется, так беспокоятся, не то чтобы они не были связаны, конечно.

Более того, мы не можем одинаково волноваться каждый раз, когда достигается контрольный показатель ИИ. Нам нужно сохранять нашу энергию для действительно больших моментов каскадного риска. Они придут и, честно говоря, мы не готовы. Мои предполагаемые сценарии будущего (см. «Сценарии вымирания на 2075 год») включают в себя массовые утечки данных, из-за которых целые страны на месяцы будут заблокированы в своих собственных процессах. Меня также беспокоят ИИ, которым помогают криминальные группировки или государственные деятели. Больше всего меня беспокоит комбинация ИИ, нанотехнологий, синтетической биологии и квантовой технологии — почти невидимого квазиорганического интеллекта с неизвестными возможностями, возможно, всего через несколько десятилетий, который появится как раз тогда, когда мир будет поглощен каскадным воздействием климата. изменять.

Нынешние модели ИИ еще недостаточно хорошо работают, чтобы представлять угрозу человечеству. Прежде чем мы сможем подумать об их отключении, нам нужны более совершенные ИИ. Более того, нам нужны более мудрые разработчики, более чувствительные граждане и более информированные политики. Нам также нужна концепция КАК регулировать ИИ. Но это можно сделать, ничего не замедляя. Это будет познавательное путешествие для всех. Письмо о моратории, касающееся GPT 4 (2023 г.), — это момент крика волка, который лишь отдаленно напоминает каскадные риски, с которыми человечество столкнется в ближайшие десятилетия. Ставить риск ИИ на уровень риска пандемии и ядерного риска в 2023 году преждевременно. Доберемся ли мы туда? Возможно. Но плач волка имеет последствия. Это высасывает кислород из предстоящих дебатов о реальных страхах.

Источник: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/