Участники рынка, эксперты и депутаты активно обсуждают проект законодательного регулирования искусственного интеллекта в России, разработанный профильной рабочей группой. Инициатива представлена в виде законопроекта под названием «О регулировании систем искусственного интеллекта в России», который сейчас обсуждается на заседаниях рабочих групп в Госдуме, в «Деловой России» и на других отраслевых площадках.
Как сообщает РБК, проект был подготовлен рабочей группой, состоящей из юристов, представителей консалтинговых компаний и специалистов по ИИ. Законопроект нацелен на реализацию Национальной стратегии развития искусственного интеллекта до 2030 года, утверждённой в феврале 2024 года.
Заместитель председателя комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов отметил, что на данный момент законопроект не рассматривается серьёзно, и рабочая группа сосредоточена на тщательной проработке запросов от различных отраслей. В ближайшие месяцы ожидаются инициативы, которые будут регулировать отдельные отраслевые запросы, например, маркировку ИИ. Однако законопроект, регулирующий всю деятельность ИИ, не планируется в этом году.
Представители аппарата правительства и Минцифры сообщили, что законопроект пока не поступал к ним на рассмотрение, но они готовы рассмотреть его при поступлении.
Основные предложения законопроекта:
Введение понятия искусственного интеллекта, включая технологии самообучения и поиска решений без заранее заданных алгоритмов.
Определение технологий ИИ, таких как компьютерное зрение, обработка естественного языка, машинное обучение и другие.
Введение обязательной маркировки систем ИИ, которая будет ясно и недвусмысленно указывать на использование ИИ при взаимодействии с пользователем.
Классификация систем ИИ по уровню риска: от неприемлемого до минимального. Предлагается запретить системы с неприемлемым риском, обязательную сертификацию для высокорисковых систем и добровольную сертификацию для систем с ограниченным риском.
Введение ответственности за причинение вреда при эксплуатации систем ИИ и обязательное страхование ответственности для высокорисковых систем.
Определение прав на результаты интеллектуальной деятельности, созданные с помощью ИИ, в зависимости от степени творческого вклада человека.
Если законопроект будет принят, операторы и разработчики ИИ-систем должны будут выполнить его требования в течение года после вступления в силу, а высокорисковые системы, созданные до принятия закона, должны будут пройти сертификацию в течение двух лет.
Необходимость регулирования ИИ
В некоторых компаниях-разработчиках ИИ считают, что регулирование этой технологии на данном этапе преждевременно. Например, вице-премьер Дмитрий Григоренко в феврале этого года заявил, что законодательное регулирование ИИ не планируется в ближайшие два года. Эксперты утверждают, что чрезмерное регулирование может замедлить развитие отрасли и привести к технологическому отставанию. К примеру, в ЕС закон об ИИ привел к сокращению присутствия крупных компаний на рынке.
Директор по цифровым технологиям «Ростелекома» Роман Хазеев отметил, что во всем мире ещё не сформирована достаточная законодательная база для определения ответственности разработчиков нейросетей и других аспектов, таких как применение дипфейков. Он подчеркнул, что регулирующие меры должны вводиться только после стабилизации процессов.
Международный опыт
В 2024 году Европарламент принял Регламент об искусственном интеллекте (EU AI Act), который ограничивает использование ИИ для манипулирования людьми, а также вводит обязательную маркировку ИИ-контента. В 2025 году Китай также утвердил правила для маркировки ИИ-контента, которые вступят в силу с 1 сентября. В России вопросы маркировки ИИ-систем начали обсуждаться в 2022 году, а в 2024 году в Госдуме началась разработка соответствующего законопроекта.
Все новости