Наблюдение с помощью искусственного интеллекта на рабочем месте вызывает проблемы конфиденциальности

Крупные корпорации США внедрили системы наблюдения с использованием искусственного интеллекта. Они анализируют общение сотрудников в популярных бизнес-приложениях. К ним относятся Slack, Teams и Zoom. Эти модели искусственного интеллекта утверждают, что анализируют как текстовый, так и графический контент, публикуемый сотрудниками. Они оценивают настроения и выявляют такое поведение, как издевательства, преследования, дискриминация и неподчинение требованиям.

Использование в корпоративной среде

Некоторые компании используют эти инструменты для оценки реакции сотрудников на корпоративную политику. Инструменты не идентифицируют людей. Другие используют их, чтобы отмечать конкретные публикации определенных людей. Компания Aware, ведущий поставщик таких систем наблюдения с использованием искусственного интеллекта, может похвастаться своей клиентурой. В него входят такие крупные компании, как Chevron, Delta, Starbucks, T-Mobile и Walmart. Компания утверждает, что проанализировала более 20 миллиардов взаимодействий. Они сделали это с более чем тремя миллионами сотрудников.

Однако высказывались опасения по поводу потенциального вторжения в частную жизнь и оруэлловского характера этих систем наблюдения. Критики обеспокоены тем, что общение сотрудников можно рассматривать как мыслепреступления. Они опасаются, что это может охладить дискуссию на рабочем месте. Ютта Уильямс — соучредитель некоммерческой организации Humane Intelligence, занимающейся подотчетностью в области искусственного интеллекта. Она утверждает, что такое наблюдение может привести к несправедливому обращению с сотрудниками. Это также может привести к ухудшению доверия внутри организаций.

Правовые и этические соображения

Эксперты подчеркивают юридические и этические соображения, связанные с слежкой за сотрудниками с помощью ИИ. Они подчеркивают необходимость сбалансировать права на неприкосновенность частной жизни. Они также подчеркивают необходимость мониторинга рискованного поведения. Амба Как — исполнительный директор Института AI Now Нью-Йоркского университета. Она обеспокоена использованием ИИ для определения рискованного поведения. Она предупреждает о потенциальном негативном влиянии на общение на рабочем месте. Кроме того, есть опасения, что даже агрегированные данные могут быть легко деанонимизированы. Это создает угрозу конфиденциальности личности.

Реакция регулирующих органов на надзор за ИИ

Федеральная торговая комиссия, Министерство юстиции и Комиссия по равным возможностям трудоустройства выразили обеспокоенность. Они обеспокоены использованием систем наблюдения на основе искусственного интеллекта на рабочих местах. Эти агентства рассматривают эту проблему как как вопрос прав работников, так и как вопрос конфиденциальности. Они подчеркивают необходимость комплексного регулирования. Это защищает права сотрудников и позволяет эффективно управлять рисками в корпоративной среде.

Использование систем наблюдения с использованием искусственного интеллекта на рабочем месте поднимает сложные этические, юридические вопросы и вопросы конфиденциальности. Эти вопросы требуют тщательного рассмотрения и регулирования. Эти системы могут предложить преимущества в управлении рисками и соблюдении требований. Однако они также создают значительные риски для конфиденциальности сотрудников и свободы выражения мнений. Поскольку организации продолжают применять технологии искусственного интеллекта для целей наблюдения, крайне важно найти баланс. Баланс должен поддерживать безопасную и продуктивную рабочую среду и уважать права сотрудников на неприкосновенность частной жизни и свободу слова.

 

Источник: https://www.cryptopolitan.com/ai-surveillance-in-the-workplace/