Новости Полезные статьи Кейсы
юристов
База нотариусов
11:26, 19.03.2026

Новый закон Минцифры об ИИ обяжет маркировать дипфейки и защитит авторов

Новый закон Минцифры об ИИ обяжет маркировать дипфейки и защитит авторов

Минцифры РФ опубликовало проект закона о государственном регулировании искусственного интеллекта в России. Документ должен вступить в силу с 1 сентября 2027 года и впервые установить жесткие правила для отрасли.

Согласно проекту, все стадии разработки и обучения национальных моделей ИИ должны проходить только на территории РФ и только ее гражданами. Мы разобрались, кто ответит за сбои алгоритмов, зачем вводится маркировка дипфейков и как нейросетям разрешили учиться на чужом контенте.

Прозрачность нейросетей и право на общение с человеком

Государство вводит строгие правила прозрачности для всех сервисов, использующих ИИ. Главное нововведение — обязательная маркировка дипфейков. Любой сгенерированный аудио-, видео- или визуальный контент должен иметь четкое предупреждение.

Маркировка должна быть понятна человеку и легко считываться поисковыми роботами. Крупные платформы с аудиторией более 100 тысяч человек в сутки обяжут автоматически выявлять «нелегальный» контент и помечать его принудительно.

Закон также закрепляет право на отказ от нейросети. Если банк или госсистема принимает решение с помощью алгоритма, гражданин может потребовать, чтобы его делом занялся живой сотрудник.

Революция в авторском праве и обучение моделей ИИ

Для ИТ-рынка законопроект содержит долгожданную норму. Обучение нейросетей на авторских материалах официально признано законным и не нарушает патентных прав.

Анализ текстов и картинок для создания дата-сетов легален, если разработчик получил доступ к материалам правомерно. Это касается и данных, находящихся в открытом доступе в сети.

При этом права на сами результаты генерации будут охраняться Гражданским кодексом РФ. Владельцы сервисов обязаны прописывать в соглашениях, кому принадлежат права на созданный контент и как его использовать без нарушений.

Кто несет ответственность за результат работы алгоритмов

Законопроект Минцифры детально распределяет юридическую ответственность между участниками рынка. Это исключит ситуации, когда виноватых в ошибке программы найти невозможно.

Разработчики моделей отвечают за безопасность кода. Они обязаны блокировать возможность создания противоправного контента и исключать дискриминацию в алгоритмах.

Операторы систем несут ответственность за эксплуатацию. Они обязаны моментально отключать ИИ при угрозе жизни людей или безопасности государства.

Пользователи будут отвечать лично, если они умышленно обошли защитные фильтры для генерации незаконных материалов. В случае ущерба из-за программного сбоя платить будет оператор, сохранив право взыскать деньги с разработчика.

Суверенный искусственный интеллект и реестр доверенных моделей

В России появится реестр доверенных моделей ИИ. В него попадут суверенные и национальные нейросети, созданные российскими компаниями и обученные внутри страны.

Только такие решения допустят к работе в госсекторе и на объектах критической информационной инфраструктуры. Чтобы ускорить процесс, правительство вводит масштабные льготы для дата-центров и суперкомпьютеров.

Владельцы инфраструктуры получат бесплатное техприсоединение к сетям и сниженные тарифы на электричество. Также предусмотрены налоговые преференции и прямое бюджетное финансирование.

Сроки вступления в силу и затраты бизнеса

Реформа затронет более 8 млн предпринимателей и потребует от бизнеса затрат свыше 3 млрд рублей в течение 6 лет. Сейчас документ проходит этап публичного обсуждения и экспертизы на портале проектов нормативных актов.

Финальная версия закона должна заработать с сентября 2027 года. Переходный период необходим ИТ-отрасли для аудита своих моделей и настройки инфраструктуры под новые требования безопасности.

Источник: regulation.gov.ru
Поделиться

Чтобы оставлять комментарии, авторизуйтесь. Нет аккаунта? Регистрация.