Решение должно оставаться за человеком - Ассоциация больших данных
Решение должно оставаться за человеком
18 апреля 2022

Эти­ки раз­ра­бот­ки ис­кусс­твен­но­го ин­теллек­та (ИИ) уже не­дос­та­точ­но. Необ­хо­димо фор­ми­ровать эти­ку внед­ре­ния и ис­поль­зо­вания ИИ, что яв­ляет­ся бо­лее слож­ной и мас­штаб­ной за­дачей. С та­ким пред­ло­жением выс­ту­пили учас­тни­ки кон­фе­рен­ции Data Fusion.

Участники секции «Вопросы доверия и этики в искусственном интеллекте (ИИ) и работе с данными» конференции Data Fusion на основе накопленного опыта пришли к схожим выводам: необходимо обеспечить корректность датасетов и прозрачность работы алгоритмов, следует строить механизмы обратной связи в том случае, если модель работает некорректно, и наконец рекомендации ИИ не стоит рассматривать как истину в последней инстанции, решение всегда должно оставаться за человеком. При этом обсуждение происходило в традиционном для Data Fusion формате разбора конкретных кейсов.

Исполнительный директор Ассоциации больших данных Алексей Нейман посвятил свое выступление особенностям работы рекомендательных сервисов, которые предлагают пользователям нечто на основе анализа или их собственных предпочтений, или базируясь на интересах схожей группы. Но тут возможны проблемы, например, когда предлагается продукт, не соответствующий возрасту или уровню развития, или то, что может быть воспринято как неприемлемое по каким-то другим причинам, как правило, связанным с нарушением принципов отсутствия дискриминации, непредвзятости и равенства. Именно это, по оценке Алексея Неймана, является одним из главных рисков, связанных с работой такого рода систем.

Как отмечает Алексей Нейман, чтобы риска избежать, у пользователя должна быть возможность оценить корректность датасета, включая данные о себе самом. Видя объективность этих данных, потенциальный пользователь будет больше доверять работе любого робота. Также необходима обратная связь, иначе до разработчиков просто не дойдет информация, что модель работает некорректно. Также необходимо бороться с «накрутками», когда рейтинг ресурса искусственно повышается с помощью ряда приемов. В любом случае, к рекомендациям ИИ нельзя подходить как истине в последней инстанции — конечное решение должно оставаться за человеком.

При этом кодекс этики искусственного интеллекта, который разработан группой российских компаний, как подчеркнул Алексей Нейман, уже не ограничивается базовыми принципами и постоянно дополняется. Лидеры рынка формируют свои модели и идут к ним разными путями. И они формируют отраслевые стандарты, тем самым создавая модели, которым доверяют. При этом этики разработки уже недостаточно, необходимо формировать этику внедрения и использования ИИ, что является более сложной и масштабной задачей.

Руководитель группы регуляторной поддержки экосистемы ПАО «МТС» Елена Сурагина назвала этическое регулирование важной задачей, входящей в сферу корпоративной социальной ответственности. Но при этом ее невозможно решить методами традиционного отраслевого или государственного регулирования. Тем не менее существуют методики, позволяющие оценить влияние ИИ на общество. Как правило, речь идет о перечне вопросов, позволяющих выявить те или иные возможные отрицательные последствия. Обычно таких вопросов около 30, они позволяют оценить корректность работы алгоритмов и данных. При этом ответы на эти вопросы необходимо получать трижды: на стадии проекта, на стадии запуска и после запуска.

Руководитель лаборатории инноваций компании «Норбит» Дмитрий Демидов поделился результатом анализа проектов, связанных с внедрением исследования поведения сотрудников в российских компаниях. В их ходе вопрос этики тесно связан с соответствием законодательству. В частности, как оказалось, для успешного решения поставленных задач вполне достаточно данных о сотрудниках, которыми уже располагают кадровые службы. Никаких дополнительных данных собирать не требуется. Часто не требуется и чтение электронных писем, что также рассматривают как нарушение законодательства. И в целом доверять ИИ принимать решения нельзя — это могут сделать только люди, хотя давать подсказки на основе анализа больших массивов данных ИИ вполне может. Но, опять же, корректность работы «роботов» должны оценивать лица, принимающие решения.

Эксперт фонда «Сколково» Сергей Морозов также назвал основными проблемами формирование датасетов и непрозрачность работы алгоритмов. Также разработка должна проходить в соответствии с устоявшимися правилами. Мерить «на глаз» недопустимо. Именно с этим были связаны многие проблемы с работой диагностических систем выявления поражения легких коронавирусной инфекцией, которые давали недостаточную точность. И тут важна роль стандартов, создающих единые правила и экосистемы, которые работают в любой отрасли. Также Сергей Морозов назвал одной из главных насущных задач обучение людей работе с ИИ и другими аналитическими системами.

18.05.2022
Госдуму попросили не лишать подростков биометрии

Ассоциация больших данных (АБД, в нее входят "Яндекс", Сбербанк, VK, Газпромбанк, ВТБ, "Ростелеком" и другие компании) предупредила в своих...

11.05.2022
Бизнес выступил против подключения к ГосСОПКА

Российская ассоциация электронных коммуникаций (РАЭК) раскритиковала поправки к закону "О персональных данных", по которым все их операторы...

27.04.2022
Форум BIG DATA & AI 2022: данные и ИИ в сверхновой реальности

21 апреля состоялось центральное событие года по теме больших данных и интеллектуальной аналитики — 11-й форум BIG DATA & AI 2022,...