Министерство цифрового развития, связи и массовых коммуникаций РФ подготовило законопроект, устанавливающий правовые основы обращения искусственного интеллекта на территории России. Документ вводит риск-ориентированный подход: требования к системам ИИ будут дифференцированы в зависимости от потенциальной угрозы для прав граждан, безопасности и суверенитета государства.
Особое внимание уделено национальным моделям ИИ – решениям, разработанным российскими компаниями и прошедшим сертификацию. Такие модели получат преференции при использовании в госсекторе и на объектах критической информационной инфраструктуры.
Защита прав граждан
Законопроект закрепляет ключевые права пользователей:
— Право на оспаривание – граждане смогут обжаловать решения государственных органов и госкомпаний, принятые с использованием ИИ, в досудебном порядке;
— Право на компенсацию – при доказанном причинении вреда действиями алгоритмов человек получит право на возмещение ущерба;
— Защита от дискриминации – запрещается использование алгоритмов, приводящих к необоснованной дискриминации по признакам пола, возраста, расы, социального статуса и другим характеристикам.
Обязанности участников рынка
Документ распределяет ответственность между всеми участниками цепочки создания и применения ИИ:
|
Участник |
Обязанности |
|
Разработчики моделей |
Исключать дискриминационные паттерны в обучении, блокировать генерацию противоправного контента, документировать архитектуру и данные |
|
Операторы систем |
Проводить тестирование на безопасность перед запуском, информировать пользователей об ограничениях системы, обеспечивать возможность отключения ИИ |
|
Владельцы сервисов |
Оперативно реагировать на выявленные случаи неправомерного использования, блокировать доступ к опасным функциям |
Маркировка синтетического контента
Одно из самых заметных нововведений – обязательная маркировка аудиовизуальных материалов, созданных с помощью ИИ. Все такие объекты должны содержать визуальное или аудио-предупреждение о синтетическом происхождении.
Крупные социальные сети и платформы обязаны:
— проверять наличие маркировки у загружаемого контента;
— при её отсутствии самостоятельно наносить отметку или удалять материал;
— обеспечивать техническую невозможность удаления маркировки конечным пользователем.
Мера направлена на борьбу с дезинформацией, мошенничеством и манипуляциями с использованием «дипфейков».
Участие бизнес-сообщества в разработке
АНО «Цифровая экономика» совместно с представителями технологического бизнеса активно участвует в обсуждении законопроекта. Как отметила генеральный директор организации Чулпан Госсамова:
«Мы собираем и консолидируем предложения по структуре законопроекта об ИИ для оценки его влияния на бизнес. Уверены, что итоговый документ, согласованный со всеми участниками, положительно повлияет на дальнейшее развитие отечественных технологий на базе ИИ».
Такой подход позволяет учесть интересы как регулятора, так и разработчиков, избегая излишнего бюрократического бремени при сохранении защиты прав граждан.
Сроки вступления в силу
Законопроект планируется принять в 2026 году, а вступить в силу он должен 1 сентября 2027 года. Отсрочка предоставит бизнесу время на адаптацию процессов, разработку технических решений для маркировки и проведение аудита существующих ИИ-систем.
Читайте также: В Генпрокуратуре предложили усилить ответственность за неустранение критических уязвимостей в КИИ
Благодарим за оставленный Вами отзыв! Мы стараемся становиться лучше!


© Фото: freepik.com