Минцифры опубликовало для обсуждения свой проект закона о регулировании систем искусственного интеллекта (ИИ) в РФ. Ранее проект уже отчасти обсуждался в СМИ, но лишь теперь стал доступен полный текст. Законопроект определяет основные термины (в том числе «искусственный интеллект»), вводит понятия «суверенных» и «национальных» моделей ИИ (почему-то обоим понятиям дано одно и то же определение — они должны разрабатываться исключительно в России и россиянами и обучаться исключительно на российских наборах данных), а также определяет ответственность лиц, связанных с созданием и использованием ИИ. В современных условиях наибольший интерес могут вызвать положения об ответственности всех причастных: разработчика модели ИИ, оператора системы, владельца сервиса, а также пользователей. У этих лиц по новому закону имеются обширные обязанности. Например, разработчик обязан документировать свою разработку «в объёме, необходимом для её проверки на соответствие нормативному правовому регулированию»; оператор — «проводить тестирование системы для выявления потенциальных возможностей её использования в целях, противоречащих законодательству»; владелец сервиса — «принимать меры по недопущению использования сервиса в противоправных целях» (а также, при достаточной популярности сервиса, хранить диалоги с пользователями); пользователь — «использовать сервисы искусственного интеллекта и модели искусственного интеллекта в целях, не противоречащих законодательству». Все упомянутые субъекты несут ответственность «за результат, полученный с использованием искусственного интеллекта, нарушающий законодательство Российской Федерации, соразмерно степени вины каждого». Ответственность может быть как административной, так и уголовной (конкретные статьи УК и КоАП в проекте не упомянуты). Сергей Будылин, советник АБ «Бартолиус», к.ф.-м.н., LL.M о том, как это будет работать на практике. Учитывая, сколько всего у нас сейчас запрещено, создавать ИИ и оперировать им, а также пользоваться его продукцией, становится довольно опасно. Мало ли что робот напишет или нарисует! Где гарантии, что власти не сочтут текст или картинку «нарушающими законодательство»? Правда, в проекте говорится, что разработчик, оператор и владелец сервиса несут ответственность, только если они «знали или должны были знать о возможности получения такого результата». Но, как известно, «должны были знать» — понятие растяжимое. Как определить, что он действительно должен был это знать? Авторы проекта заботливо уточняют: «если в результате следственных действий [sic!] не будет доказано обратное». Что касается пользователя, он несёт ответственность за использование противозаконного контента, «когда такой результат является следствием его умышленных действий либо несоблюдения им условий использования сервиса искусственного интеллекта». Но тут опять же: поди докажи, что ты не хотел, а оно само вышло… Как же участникам рынка обезопасить себя от административного и уголовного преследования? Видимо, ответ состоит в том, что к каждому генеративному ИИ должен прилагаться ИИ-цензор, который будет проверять его продукцию на соответствие действующему законодательству. Разумеется, этот робот-цензор должен постоянно дообучаться с учётом новых запретительных законов, реестров и разъяснений. Очень может быть, что именно создание эффективного ИИ-цензора и станет важнейшей задачей для российских разработчиков систем ИИ. Ведь выдача потребителю продукции ИИ без цензуры влечёт неконтролируемые риски для разработчиков и операторов. Смело можно предположить, что всё это окажет серьёзное «охлаждающее воздействие» на горячие головы, желающие развивать ИИ в России. А если ещё учесть требования к «суверенным» и «национальным» моделям ИИ, где запрещено использование западных технологий и наборов данных, будущее российского ИИ не выглядит особенно радужным. |