Минцифры вынесло на общественное обсуждение законопроект, устанавливающий комплексное регулирование искусственного интеллекта. Единые правила для разработчиков, владельцев сервисов и пользователей планируется ввести в сентябре 2027 года.
Документ закрепляет базовые понятия («искусственный интеллект», «модель», «сервис ИИ») и вводит разграничение ответственности участников рынка. Разработчиков обяжут исключать дискриминационные алгоритмы и блокировать возможность создания противоправного контента. Операторам систем предстоит проводить обязательное тестирование безопасности, а владельцы сервисов, помимо пресечения неправомерного использования, будут маркировать контент, созданный нейросетями.
Граждане получат право в досудебном порядке оспаривать решения госорганов и компаний, принятые алгоритмами. Также закрепляется возможность отказа от автоматизированного обслуживания (перечень случаев определит правительство), а также право на компенсацию вреда, причинённого работой ИИ.
Отдельный блок посвящен технологическому суверенитету. Государственная поддержка будет предоставляться исключительно национальным моделям, разработанным в России с участием российских юридических лиц и граждан. Для использования в госорганах и на объектах критической информационной инфраструктуры допустят только «доверенные» модели из специального реестра, соответствующие строгим требованиям безопасности.
Объекты, созданные с помощью ИИ, получат охрану по гражданскому законодательству при условии их оригинальности. При этом использование охраняемых материалов для обучения нейросетей не будет считаться нарушением авторских прав, если доступ к ним был получен законным путем.
Таким образом, законопроект вводит жесткие правила: маркировку, ограничения для иностранного кода и требования к доверенным моделям, что должно укрепить защиту данных и обеспечить технологический суверенитет. Участники рынка получат долгожданную определенность: законодатели наконец-то дадут ответы на вопросы об ответственности, авторском праве и легальности обучения нейросетей.










