До конца 2025 года ФСТЭК представит стандарт безопасной разработки систем ИИ

Share to Telegram Share to VK
clock 21 сентября 2025, 10:46
До конца 2025 года ФСТЭК представит стандарт безопасной разработки систем ИИ © freepick.com

Федеральная служба по техническому и экспортному контролю (ФСТЭК России) до конца 2025 года представит экспертному сообществу для обсуждения проект специализированного стандарта безопасной разработки систем искусственного интеллекта. Об этом сообщил первый заместитель директора службы Виталий Лютиков на конференции BIS Summit 2025, прошедшей 18 сентября, пишет comnews.ru.

Цель и содержание нового стандарта

По словам Виталия Лютикова, новый стандарт станет дополнением к действующим нормам по безопасной разработке программного обеспечения, включая ГОСТ Р 56939-2024. Он будет учитывать специфические риски и уязвимости, связанные с технологиями ИИ, такие как:

- работа с большими объемами данных;
- особенности обучения и функционирования моделей машинного обучения;
- угрозы, связанные с использованием промтов и потенциальные утечки через них.

Стандарт призван закрыть пробелы в регулировании именно этапов разработки, а не только эксплуатации ИИ-систем.

Требования к госорганам уже формируются

ФСТЭК также разработала требования, которые вступят в силу с 2026 года и будут обязательны для государственных органов. Они касаются применения технологий и сервисов на основе ИИ. Пока эти требования носят общий характер, служба уже начинает внедрять конкретные меры по обеспечению безопасности ИИ.

Эксперты о проблемах текущего подхода

Ряд экспертов подчеркнули, что существующие нормативы не покрывают специфику ИИ-разработки. Полина Павлова, директор по работе с государственным сектором ООО «Элма», отметила: хотя базовые стандарты по безопасной разработке ПО есть, они не учитывают риски, характерные для ИИ — такие как галлюцинации моделей, adversarial-атаки или отравление обучающих выборок. Приказ ФСТЭК №117 ориентирован на эксплуатацию, а не на процессы создания моделей.

Юрий Тюрин, технический директор ООО «МД Аудит» (ГК Softline), добавил, что в отсутствие единого стандарта каждая компания выстраивает процессы самостоятельно, что приводит к разрозненности и разному уровню зрелости защиты.

Что должно войти в стандарт?

Роман Карпов, директор по стратегии и развитию технологий АО «Аксиом», считает, что стандарт должен включать:

- механизмы контроля актуальности модели на протяжении её жизненного цикла;
- методики выявления и предотвращения галлюцинаций;
- требования к верификации достоверности выводов ИИ.

Татьяна Белоусова, директор ИБ-направления ООО «УльтимаТек», подчеркнула, что безопасность ИИ выходит за рамки классической информационной безопасности и должна включать:

- обеспечение безопасности цепочки поставок данных;
- тестирование моделей на устойчивость к атакам;
- анализ логики и контекста генерируемых ответов.

Роль бизнеса и научного сообщества

Эдуард Ашрафьян, архитектор ИИ-решений ООО «Рексофт», отметил, что в рабочую группу по созданию стандарта следует включить представителей компаний с промышленным опытом внедрения ИИ, чтобы повысить практичность документа.

Савелий Батурин, руководитель отдела ML Postgres Professional, считает, что совместная разработка с участием вендоров позволит опереться на реальный опыт и быстрее сформировать полезный стандарт.

Андрей Зыкин, руководитель направления по внедрению ИИ в BPMSoft, предлагает сначала подготовить базовую версию стандарта с участием академического сообщества (например, ИСП РАН), а затем провести открытую консультацию с индустрией, чтобы избежать затягивания процесса или однобокости.

Ответственность и маркировка

Михаил Бочаров, заместитель гендиректора по науке АО «СиСофт Девелопмент», подчеркнул необходимость четкой ответственности за результат работы ИИ, ссылаясь на недавний китайский закон о маркировке продуктов, созданных с помощью ИИ. По его мнению, попытки обезличить ответственность должны быть исключены изначально.

Сергей Генералов, заместитель технического директора ГК «Цифровые привычки», добавил: ответственность за применение ИИ должна лежать полностью на компании-пользователе, а единые правила должны учитывать специфику технологии.

Читайте также: «Гарда» и R-Vision подтвердили совместимость систем информационной безопасности.


Был ли вам полезен данный материал?


Подписывайся на наши каналы в Telegram:

Подпишись на еженедельный дайджест самых интересных новостей по e-mail    
Yandex.Дзен

Подписывайтесь на канал ru-bezh.ru
в Яндекс.Дзен

RUБЕЖ в telegram+ RUБЕЖ-RSS RUБЕЖ в vk RUБЕЖ на youtube RUБЕЖ на dzen

Контакты

Адрес: 119270, г. Москва, Фрунзенская набережная, д. 50, пом. IIIа, комн.1

Тел./ф.: +7 (495) 539-30-20

Время работы: 9:00-18:00, понедельник - пятница

E-mail: info@ru-bezh.ru


Для рекламодателей

E-mail: reklama@ru-bezh.ru

тел.: +7 (495) 539-30-20 (доб. 103)

Первый отраслевой маркетплейс систем безопасности SecumarketПартнёр первого маркетплейса систем безопасности secumarket.ru
Выделите опечатку и нажмите Ctrl + Enter, чтобы отправить сообщение.