- 21 марта 2026 18:35
- Новость
ИИ под надзором: новый российский законопроект перекликается с европейским подходом
Лента новостей
Эксперты отмечают сходство разрабатываемого Минцифры документа с европейским «Актом об ИИ» — от категорирования рисков до обязательной маркировки контента и виновной ответственности.
Фото: Freepik
В России началось общественное обсуждение законопроекта Минцифры «Об основах госрегулирования сфер применения технологий искусственного интеллекта», опубликованного 18 марта. Документ уже вызвал интерес у профессионального сообщества: адвокат правового центра «Алмаз Новосибирск» Андрей Петров в интервью для Сиб.фм обратил внимание на концептуальную близость инициативы к европейскому регулированию.
Как отметил юрист, российский проект во многом заимствует логику европейского «Акта об искусственном интеллекте» (EU AI Act). В основе обоих документов лежит риск-ориентированный подход: все системы ИИ предполагается делить на категории в зависимости от потенциальной угрозы для прав и безопасности граждан.
Европейская классификация выделяет четыре уровня: системы с минимальным риском, генерирующие модели (нейросети), системы с высоким риском и, наконец, те, чьё применение признаётся недопустимым. К последней категории в ЕС относят технологии, предназначенные для когнитивно-поведенческого манипулирования людьми или уязвимыми группами (включая детей), системы социального ранжирования граждан, а также инструменты биометрической идентификации в реальном времени, такие как распознавание лиц. Аналогичные ограничения, по прогнозам экспертов, могут быть закреплены и в российской версии.
Одно из ключевых нововведений законопроекта — обязательная маркировка контента, созданного с помощью искусственного интеллекта. Владельцы ИИ-сервисов будут обязаны размещать специальные предупреждения о том, что аудио-, видео- или текстовый материал сгенерирован нейросетью. Детальные требования к формату и способу такого информирования определит правительство.
Особое внимание в документе уделено вопросам ответственности. Как подчеркнул Андрей Петров, статья 11 проекта устанавливает, что за противоправные последствия использования ИИ каждый участник цепочки — разработчик, владелец сервиса или пользователь — будет отвечать соразмерно степени своей вины. Это, по мнению юриста, требует чёткого разграничения зон ответственности между всеми субъектами правоотношений.
Спикер назвал появление законопроекта важным этапом на пути формирования правового поля для стремительно развивающихся технологий. Однако главным вызовом, по его словам, станет практическая реализация заложенных норм. В частности, потребуется выработать ясные критерии отнесения систем ИИ к категории «неприемлемого риска», а также обеспечить реальную прозрачность работы алгоритмов, что технически может оказаться непростой задачей.
Общественное обсуждение документа продлится до начала апреля. Эксперты полагают, что отзывы и предложения профессионального сообщества, а также правозащитных организаций способны повлиять на финальную версию законопроекта перед его внесением в Государственную думу.
Рекомендуем:
Популярное
Последний день Рамадана 2026: точное время окончания поста и начала Ураза-байрама
Ураза-байрам в 2026 году: точная дата окончания Рамадана
Ураза-байрам 2026: точная дата окончания Рамадана, обычаи и традиции праздника
В 2026 году россияне столкнутся с налогом на наследство: что нужно знать
В Новосибирске похоронили бизнесмена из Краснодара, чья гибель окутана мраком
Последние новости

