3 причины, по которым вашей организации потребуются внешние оценщики алгоритмов

Сатта Сарма-Хайтауэр

Лидеры бизнеса выжимают из искусственного интеллекта (ИИ) всю возможную ценность. Исследование KPMG 2021 года показало, что большинство лидеров правительства, промышленного производства, финансовых услуг, розничной торговли, медико-биологических наук и здравоохранения говорят, что ИИ по крайней мере умеренно функционален в их организациях.. Исследование также показало, что половина респондентов говорят, что их организация ускорила внедрение ИИ в ответ на пандемию Covid-19. В организациях, где ИИ был принят, по крайней мере половина говорит, что технология превзошла ожидания.

Алгоритмы искусственного интеллекта все больше отвечают за разнообразные современные взаимодействия и инновации — от персонализированных рекомендации по продукту и обслуживание клиентов опыт банкам кредитные решения и даже реакция полиции.

Но несмотря на все преимущества, которые они предлагают, алгоритмы искусственного интеллекта сопряжены с большими рисками, если они не подвергаются эффективному мониторингу и оценке на предмет устойчивости, справедливости, объяснимости и целостности. Чтобы помочь бизнес-лидерам в мониторинге и оценке ИИ, упомянутое выше исследование показывает, что все большее число бизнес-лидеров хотят, чтобы правительство регулировало ИИ, чтобы позволить организациям инвестировать в правильные технологии и бизнес-процессы. Для необходимой поддержки и надзора целесообразно рассмотреть возможность проведения внешних оценок, предлагаемых поставщиком услуг, имеющим опыт предоставления таких услуг. Вот три причины почему.

1. Алгоритмы — это «черные ящики»

Алгоритмы ИИ, которые извлекают уроки из данных для решения проблем и оптимизации задач, делают системы умнее, позволяя им собирать и генерировать информацию намного быстрее, чем люди.

Однако некоторые заинтересованные стороны считают эти алгоритмы «черными ящиками», объясняет Дрю Розен, управляющий директор по аудиту в KPMG, ведущей фирме, предоставляющей профессиональные услуги. В частности, некоторые заинтересованные стороны могут не понимать, как алгоритм пришел к определенному решению, и поэтому могут быть не уверены в справедливости или точности этого решения.

«Результаты, полученные с помощью алгоритма, могут быть подвержены предвзятости и неправильной интерпретации результатов», — говорит Розен. «Это также может привести к некоторым рискам для организации, поскольку они используют эти результаты и делятся [ими] с общественностью и заинтересованными сторонами».

Например, алгоритм, использующий ошибочные данные, в лучшем случае неэффективен, а в худшем — вреден. Как это может выглядеть на практике? Рассмотрим чат-бот на основе ИИ, который предоставляет пользователям неверную информацию об учетной записи, или инструмент автоматического языкового перевода, который неточно переводит текст. Оба случая могут привести к серьезным ошибкам или неправильным толкованиям для государственных органов или компаний, а также для избирателей и клиентов, которые полагаются на решения, принимаемые этими алгоритмами.

Другой фактор, способствующий возникновению проблемы черного ящика, заключается в том, что при разработке моделей ИИ просачивается неотъемлемая предвзятость, что может привести к предвзятому принятию решений. Кредитные кредиторы, например, все чаще используют ИИ для прогнозирования кредитоспособности потенциальных заемщиков для принятия решений о кредитовании. Однако может возникнуть риск, когда ключевые входные данные для ИИ, такие как кредитный рейтинг потенциального заемщика, имеет существенную ошибку, что приводит к тому, что этим лицам отказывают в кредитах.

Это подчеркивает потребность во внешнем оценщике, который может выступать в качестве беспристрастного оценщика и обеспечивать целенаправленную оценку на основе принятых критериев актуальности и надежности исторических данных и допущений, лежащих в основе алгоритма.

2. Заинтересованные стороны и регулирующие органы требуют прозрачности

В 2022 году не существовало текущих требований к отчетности для ответственного ИИ. Однако, говорит Розен, «подобно тому, как руководящие органы ввели регулирование ESG [экологическое, социальное и управленческое] в отчет по определенным метрикам ESG, это только вопрос времени, когда мы увидим дополнительные нормативные требования к отчетности для ответственного ИИ».

Фактически, с 1 января 2023 г. Местный закон 144 требует, чтобы перед использованием автоматизированного инструмента принятия решений о приеме на работу был проведен аудит предвзятости.

А на федеральном уровне Закон о национальной инициативе в области искусственного интеллекта от 2020 г.— который строится на Указ 2019 года— основное внимание уделяется техническим стандартам и рекомендациям по ИИ. Кроме того, Закон об алгоритмической ответственности могут потребоваться оценки воздействия автоматизированных систем принятия решений и расширенные критически важные процессы принятия решений. А за границей, Закон об искусственном интеллекте была предложена комплексная нормативная база с конкретными целями в отношении безопасности ИИ, соответствия требованиям, управления и надежности.

С этими сдвигами организации находятся под микроскопом управления. Оценщик алгоритмов может предоставлять такие отчеты, которые соответствуют нормативным требованиям и повышают прозрачность для заинтересованных сторон, избегая при этом риска того, что заинтересованные стороны неправильно истолковывают или введенный в заблуждение по результатам оценки.

3. Компании получают выгоду от долгосрочного управления рисками

Стив Камара, партнер практики KPMG по обеспечению качества технологий, прогнозирует, что инвестиции в ИИ будут продолжать расти по мере того, как компании продолжают автоматизировать процессы, разрабатывать инновации, улучшающие качество обслуживания клиентов, и распределять разработки ИИ по бизнес-функциям. Чтобы оставаться конкурентоспособными и прибыльными, организациям потребуются эффективные средства контроля, которые не только устраняют непосредственные недостатки ИИ, но и снижают любые долгосрочные риски, связанные с бизнес-операциями, основанными на ИИ.

Именно здесь внешние оценщики выступают в качестве надежного и опытного ресурса. По словам Камара, по мере того, как организации все чаще используют целостность ИИ в качестве средства обеспечения бизнеса, партнерство может стать не разовой услугой, а более последовательным сотрудничеством.

«Мы видим путь вперед, где потребуются постоянные отношения между организациями, которые разрабатывают и внедряют ИИ на постоянной основе, и объективным внешним оценщиком», — говорит он.

Взгляд на то, что будет дальше

В будущем организации могут использовать внешние оценки на более циклической основе, например, по мере разработки новых моделей, использования новых источников данных, интеграции решений сторонних поставщиков или выполнения новых требований соответствия.

Когда требуются дополнительные нормативные требования и требования соответствия, внешние оценщики могут предоставлять услуги для непосредственной оценки того, насколько хорошо организация развернула или использовала ИИ в соответствии с этими требованиями. Тогда эти оценщики будут иметь наилучшие возможности для четкого и последовательного обмена результатами оценки.

Чтобы извлечь выгоду из технологии, а также защититься от ее ограничений, организация должна обратиться к внешним оценщикам для предоставления отчетов, на которые она затем может положиться, чтобы продемонстрировать большую прозрачность при развертывании алгоритмов. Оттуда и организация, и заинтересованные стороны могут лучше понять мощь ИИ и его ограничения.

Источник: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/