Правительство России планирует проверять системы, которые реализуют технологию искусственного интеллекта (ИИ), на наличие угроз безопасности государства и обороны страны. Для этого в 2025-2026 гг. планируется провести научно-исследовательскую разработку принципов анализа ИИ-моделей, обученных на государственных данных, а в 2027-2028 гг. – создать и внедрить первую версию программы, которая будет анализировать такие ИИ-модели.
Вход разрешен
Правительство России начнет проверять системы, реализующие технологии искусственного интеллекта, на содержание угроз безопасности государства и обороны России, об этом пишет «Коммерсант».
В период с 2025 по 2026 гг. планируется провести исследование и разработать методологию анализа ИИ-моделей. В 2027–2028 гг. будет создана и внедрена первая версия программного обеспечения (ПО) для проверки ИИ. Участники рынка подчеркивают, что обучение ИИ на государственных данных требует особых мер безопасности. К 2030 г. планируется обеспечить подтверждение безопасности пяти ИТ-систем для их использования в экономике данных.
Согласно документу, до 2030 г. на эти цели выделят 8,1 млрд руб., а за саму реализацию проекта отвечает Федеральная служба безопасности (ФСБ) России.
«Один из самых главных рисков – риск утечки данных, которые можно деобезличить. Другая проблема – это недостоверность предсказаний. Ошибки в обучении ИИ-модели или целенаправленные манипуляции могут привести к искаженным рекомендациям для государственного управления или стратегических решений. А если модель содержит уязвимости, то она может стать входной точкой для атак на российские ИТ-системы», – сказала специалист по машинному обучению «Инфосистемы Джет» Надежда Гаврикова.
В настоящее время у коммерческих компаний нет доступа к государственным данным. В Ассоциации больших данных (АБД), которая объединяет «Яндекс», VK, «Ростелеком» и ряд других игроков рынка, добавляют, что пока что речь идет только об информации, необходимой бизнесу для оказания услуг. По мнению руководителя группы консалтинга MTS AI Дмитрия Черноуса, это позволит создавать ИИ-модели, учитывающие особенности страны или отдельного российского региона.
С 1 января следующего года будет применяться государственный стандарт, закрепляющий требования к защите данных при применении ИИ.
Ограничения развитие ИИ-технологий
Предприятия в России сталкиваются с рядом сложностей при внедрении и использовании ИИ-технологий. Главным препятствием являются высокие затраты. Об этом говорится в материале Национального исследовательского университета «Высшей школы экономики» (НИУ ВШЭ).
Обнародованные данные базируются на результатах опроса 2,3 тыс. организаций из различных отраслей. Авторы исследования из НИУ ВШЭ изучали использование ИИ-технологий пяти классов: это средства обработки визуальных данных, включая компьютерное зрение; ИТ-системы обработки звуковых данных, включая распознавание и синтез речи; ИТ-инструменты обработки текста; средства интеллектуальной поддержки принятия решений и управления; платформы повышения эффективности ИИ. Технологии всех перечисленных групп применяют 8,9% опрошенных организаций — пользователей ИИ в России, четырех – 11,3%, трех – 14,6%, двух – 20,1%. Но чаще всего – в 45,1% случаев – внедряются технологии лишь какого-то одного из указанных классов.
Отмечается, что российские организации сталкиваются с девятью главными барьерами в ИИ-области. Наиболее существенным препятствием для компаний, уже применяющих ИИ-технологии, стали высокие затраты, связанные с внедрением соответствующих технологий: на это указали 63,6% респондентов. Проблема значительных расходов на внедрение и использование ИИ ощутима для всех опрошенных компаний – пользователей ИИ, независимо от размера: ее отметили две трети крупных, средних и малых предприятий.
В другие различные сложности развитие ИИ-технологий в России входит дефицит специалистов в ИИ-сфере – 49,9% (от числа опрошенных организаций). Нехватка у сотрудников навыков для ИТ-разработки и применения ИИ – 39,1%. Недостаточно массивов больших данных, необходимых для использования ИИ – 38,5%. Сложность интеграции ИИ в производственные и бизнес-процессы – 38,5%. Неполнота и другие недостатки данных, сложность их обработки для применения ИИ – 37,8%. Недостаточно средств для привлечения квалифицированных кадров – 37,6%. Недостаточно развитая информационно-коммуникационная технологическая (ИКТ)-инфраструктура организации – 34,7%. Ограничения, связанные с законодательством и в том числе с использованием персональных данных – 20,7%.
Крупные организации, как сказано в исследовании, чаще, чем малые и средние, испытывают трудности с наймом квалифицированного персонала для ИТ-разработки, внедрения и поддержки эксплуатации ИИ-технологий. Бизнес испытывает сложности и с интеграцией ИИ-технологий в производственные и бизнес-процессы, с неструктурированностью, неполнотой и другими недостатками используемых массивов больших данных.
Источник: CNews
Компаниям могут грозить штрафы от 3 млн до 15 млн в зависимости от количества утерянных данных. Законом предусмотрен и штраф за нарушения...
Госдума одобрила ужесточение ответственности за утечки
Госдума одобрила два законопроекта, направленных на ужесточение оборота...
Системы искусственного интеллекта получат допуск к госданным
Модели искусственного интеллекта, которые обучили на государственных...