|
||||
| ||||
Комментарии
| ||||
|
В авторской статье Алиса Еремина, старший консультант О2 Consulting, рассматривает практические вопросы, возникающие при создании и использовании искусственного интеллекта в бизнесе. Затронутые аспекты помогут выстроить систему работы с ИИ, направленную на соблюдение законодательных требований и снижение возможных рисков для компании. Цель статьи — верхнеуровнево обозначить перечень специфических вопросов, с которыми предстоит работать юристам компаний, разрабатывающих и внедряющих ИИ, в ближайшие годы. ВведениеИскусственный интеллект сегодня — это мощный инструмент, формирующий будущее бизнеса. Системы искусственного интеллекта могут быть внедрены и развернуты в самых разных секторах экономики, при этом технологию уже можно использовать не только чтобы генерировать развлекательный контент или «оживлять» роботов. На текущий момент во многих странах принимаются акты, законы, регламенты, обеспечивающие безопасное и свободное обращение систем ИИ, связанных с ними продуктов и услуг, в бизнесе и обществе. Но нельзя говорить о существовании единой системы или единого подхода к регулированию ИИ, скорее это точечные меры, направленные на решение отдельных проблем. Например, важный для нормотворчества и отрасли Закон об искусственном интеллекте Европейского союза (Закон ЕС об ИИ) основан на рискориентированном подходе и не регулирует отдельные аспекты, а скорее указывает на зоны, требующие самоконтроля со стороны соответствующих субъектов. Другим способом саморегуляции отрасли является судебная практика, но она преимущественно сосредоточена вокруг наиболее медийно заметных и финансово значимых споров, по которым на текущий момент отсутствует единообразие. На качество судебных решений и их потенциальную применимость для формирования устойчивых правовых позиций также влияют вопросы, которые ставятся перед судом. Часто из-за новизны темы ключевые для рассмотрения дела аспекты упускаются из поля зрения, что приводит к принятию решений с некоторым «перекосом», которые нельзя в дальнейшем использовать для рассмотрения аналогичных дел. Консервативный и в текущих условиях разумный подход к регулированию отношений, связанных с ИИ, заключается в применении существующих правовых норм и конструкций. Например, соглашения, регулирующие отношения пользователей и сервисов с использованием ИИ, оформляются в виде смешанных договоров, включающих элементы лицензионных и иных договоров. Но следует отметить, что единая практика в этой области еще не сформировалась. Подход требует серьезного погружения в матчасть и творческого подхода со стороны юристов, а «подсмотреть» лучшие практики просто не у кого. Таким образом, в точке, в которой мы сейчас находимся, можно выделить три фактора, обуславливающих практическую проблему регулирования ИИ:
Эти факторы приобретают особую значимость на практике, и компании, занимающиеся созданием и внедрением систем ИИ, должны учитывать стремительно меняющийся правовой ландшафт для обеспечения своей деятельности и митигации правовых рисков. Таким образом, если юрист выступает на стороне разработчика продуктов на базе ИИ или заказчика, ему необходимо контролировать соблюдение как общепринятых правовых норм, так и узкоспециализированных (и зачастую еще не урегулированных в правовом поле) вопросов, которые обусловлены спецификой ИИ по сравнению с другими программными продуктами.
Отличие ИИ от традиционного программного обеспеченияКлассическое и наиболее распространенное понимание искусственного интеллекта определяет его как технологию, которая позволяет компьютерам и машинам имитировать человеческий интеллект и решать поставленные задачи. Свежепринятый Закон ЕС об ИИ определяет систему искусственного интеллекта как машинную систему, способную функционировать с разной степенью автономности, адаптироваться и на основе полученных входных данных генерировать такие результаты, как прогнозы, контент, рекомендации или решения, которые могут влиять на физическую или виртуальную среду. Сравним это определение с тем, которое закрепилось в российском правопорядке: «Искусственный интеллект — комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений». Обратимся к определению программного обеспечения (в ГК — программы для ЭВМ) для того, чтобы выделить квалифицирующие признаки ИИ, отличающие его от более простых программных систем (алгоритмов), предназначенных для автоматизации. Согласно ст. 1261 ГК: программой для ЭВМ является представленная в объективной форме совокупность данных и команд, предназначенных для функционирования ЭВМ и других компьютерных устройств в целях получения определенного результата, включая подготовительные материалы, полученные в ходе разработки программы для ЭВМ, и порождаемые ею аудиовизуальные отображения. Термины (в случае их широкого толкования) похожи в том, что и программа для ЭВМ, и системы искусственного интеллекта являются технологическими решениями, предназначенными для функционирования компьютерных устройств. На данном пункте сходные элементы заканчиваются, и можно сказать, что термин «искусственный интеллект» может поглотить термин «программа для ЭВМ» как более сложный и более широкий. Закон об ИИ ЕС выделяет следующие критерии, отличающие системы ИИ от иных программных продуктов:
Имитация когнитивных функций человека не находит своего отражения в Законе ЕС об ИИ в качестве критерия, но также может выступать одним из юридически значимых признаков. Одной из доминирующих и широко распространенных проблем в использовании систем ИИ в публичной и частной жизни является нарушение баланса между публичным и частным интересом. Из-за имитации когнитивных способностей человека искусственным интеллектом люди, использующие его осознанно или не информированные об этом, могут быть введены в заблуждение. Это создает широкий простор для осуществления мошеннических действий, люди принимают неверные решения в условиях дефицита объективно проверенной информации, подвергаются манипуляциям. Таким образом, можно сделать вывод, что упрощенно ИИ — это такой же программный продукт, как и любой другой. В зависимости от юрисдикции к нему будут применяться нормы такие же, как и в отношении ПО: в российском правопорядке это будут нормы для программ для ЭВМ или в отношении патентов в зависимости от того, является ли создаваемое ПО просто текстом или же оно несет в себе значимое решение, которое может признаваться в качестве изобретения или полезной модели. Практические аспекты создания и использования ИИ в бизнесеВместе с тем квалифицирующие признаки искусственного интеллекта создают ряд практических задач, которые целесообразно проработать в компании, осуществляющей разработку и внедрение систем ИИ. Такие практические вопросы непосредственно влияют на специфику программной разработки, создают дополнительные риски, требующие внимания и митигации со стороны юриста, а также осложняют договорную базу. Поскольку системы ИИ в общем квалифицируются как программное обеспечение, в зависимости от ситуации к ним будут применяться базовые правовые конструкции. То есть, даже если программное обеспечение включает технологии ИИ, оно может быть отчуждено по договору об отчуждении исключительного права на ПО. Но некоторые особенности ИИ могут повлиять на содержание таких договоров, и наша задача — сосредоточиться на этих нюансах. В рамках статьи ниже будут рассматриваться системы ИИ, которые оказывают существенное влияние на конечный продукт или же которые сами по себе являются продуктом. Например, оборот смартфонов, которые содержат технологии искусственного интеллекта в своем программном обеспечении, не рассматривается в рамках настоящей статьи. Обучение искусственного интеллектаСпособность систем ИИ к подконтрольному и самостоятельному обучению создает для разработчиков дополнительную задачу — обучение ИИ. С технической точки зрения (упрощенно), обучение заключается в предоставлении нейросети дополнительных данных (датасетов), которые влияют на результат, выдаваемый ИИ. Датасеты выступают на рынке как самостоятельный коммерчески значимый актив, поэтому их квалификация и последующее использование являются отдельным юридическим процессом. В этом процессе затрагиваются следующие юридические аспекты:
Способность делать выводы и генерировать результатыСистемы искусственного интеллекта нацелены на получение результатов, которые могут отличаться по значимости и форме. Например, программное обеспечение для колонки Алисы использует множество систем ИИ, большая часть которых обеспечивает внутренние процессы. Но их совокупная работа выдает конечный результат, будь то развлекательный контент или рекомендации. Именно этот результат часто является продуктом, который может предоставляться бесплатно, как в случае с GPT-3.5, или на платной основе, как GPT-4. Каждый продукт ИИ имеет своего конечного потребителя, и в зависимости от того, кому он предоставляется — физическим лицам, компаниям или государственным структурам, — могут применяться соответствующие требования и нормы об ответственности. Предоставление продуктов, содержащих системы ИИ, для потребителей Классический подход, закрепленный в законодательстве многих стран, рассматривает потребителей (физических лиц) как слабую сторону, что влечет за собой дополнительные меры контроля при предоставлении товаров и услуг. В зависимости от юрисдикции к пользователю продукта или услуги, содержащих ИИ, применяются соответствующие нормы потребительского законодательства. Важно отметить, что наличие систем ИИ внутри предоставляемого программного продукта не «черная метка», но практика складывается таким образом, что пользователи как минимум должны быть уведомлены о влиянии таких систем на конечный результат. Таким образом, если продукты, содержащие ИИ, предоставляются конечному потребителю в «чистом виде» или в составе продукта, необходимо:
Например, условия использования ChatGPT включают положения, ограничивающие ответственность и предупреждающие пользователей: «Результат не всегда может быть точным. Вы не должны полагаться на результаты наших сервисов как на единственный источник правдивой или фактической информации или как на замену профессиональных советов». Стоит отметить, что согласно Закону ЕС об ИИ требования к разработчикам систем ИИ будут применяться также и к компаниям, работающим за пределами ЕС. Предоставление продуктов, содержащих системы ИИ, в пользу юридических лиц. В случае прямых коммерческих отношений между создателем или дистрибьютором продуктов, содержащих ИИ, и заказчиком вопрос ответственности становится ключевым. Независимо от того, представляется ли система ИИ в виде софта (например, медицинское ПО для анализа снимков) или в виде роботизированной системы (робот-хирург), заказчики стремятся максимально защитить себя от возможных негативных последствий использования ИИ. Поэтому в договорах появляются детализированные нормы об ответственности, описывающие возможные негативные ситуации и устанавливающие вид и размер ответственности. Особое внимание уделяется распределению ответственности в случае, если обучение системы ИИ осуществляется на стороне заказчика или покупателя. Бывают ситуации, когда обучение проводит разработчик на базе данных своего клиента, что также делает результат слабо предсказуемым. Независимость от действий человека и возможность работать с различными уровнями автономииАвтономность систем ИИ означает, что ряд процессов будут осуществляться без прямого вмешательства человека. ИИ может самостоятельно дообучаться и реагировать в критических ситуациях, не запрашивая обратную связь у человека. Это создает риск неуправляемости и непредсказуемости, что может привести к критичным ошибкам. Для управления такими рисками законодатели разных стран принимают акты, направленные на обеспечение контроля над разработкой систем ИИ, их безопасностью, а также устанавливают ответственность в случае причинения ущерба. Ранее упомянутый Закон ЕС об ИИ классифицирует системы ИИ по уровню риска и устанавливает обязанности для разработчиков систем ИИ. Большинство обязанностей возлагается на разработчиков систем ИИ с высоким риском, но это относится к разработчикам как из ЕС, так и из третьих стран, если их продукция используется в ЕС. В России пока таких актов не существует, и основное регулирование разрабатывается в отношении участников экспериментального правового режима. Однако на рассмотрении в Госдуме находятся законопроекты, формирующие правовой ландшафт в отношении вопросов, связанных с искусственным интеллектом, например о страховании ответственности в связи с применением технологий ИИ. Таким образом, нормативно-правовая база начинает формироваться и становится обязательной к соблюдению для компаний, которые разрабатывают и внедряют системы ИИ. Отдельные вопросы, возникающие при разработке и использовании систем ИИПрава на объекты, созданные системами ИИ Если обратиться к пользовательским и лицензионным соглашениям сервисов, предоставляющих возможность для генерации новых объектов, например графических изображений, музыкальных произведений, то можно обнаружить единую позицию: как правило, компания-разработчик не приобретает права на сгенерированный пользователями контент. Вместе с тем для обеспечения технической донастройки и дообучения алгоритмов такие компании сохраняют за собой право использовать сгенерированные произведения для собственных нужд на условиях безвозмездной простой (неисключительной) лицензии в течение всего срока действия исключительного права. Споры между компанией-разработчиком и пользователями в отношении прав на объекты, созданные с использованием системы ИИ, пока редки. Следовательно, если компания-разработчик претендует на сохранение исключительных прав за собой, необходимые положения должны быть отражены в условиях использования соответствующего продукта. Несоответствие систем ИИ заявленным характеристикам Уже сейчас в судебной практике можно наблюдать дела, связанные с разработкой программного обеспечения, включающего системы ИИ, и со взысканием денег за невыполненную или некачественную разработку. Как правило, такие споры возникают между госзаказчиками и подрядчиками, не предоставившими результат в срок или не предоставившими техническую документацию, а значит, суды не рассматривают детально саму разработку систем ИИ и разницу между ожидаемым и полученным результатом. Количество споров, связанных с проблемами разработки искусственного интеллекта, безусловно, будет расти, а их сложность — увеличиваться по мере развития и внедрения технологий. Соответственно, договоры на разработку систем ИИ, помимо общих положений, уже сейчас должны содержать пункты, отражающие специфику разработки таких систем: детализированное техническое задание, ожидаемый результат, последствия в случае, если после обучения нейросети результат отличается от ожидаемого изначально. Например, в деле № А40-161176/2023 истец обратился в суд к правообладателю с требованием о взыскании денежных средств в связи с тем, что переданная ему по лицензии программа выполняет лишь одну функцию из заявленных. Как заявлялось правообладателем, в основе работы лежит искусственный интеллект, который обучается на основе ответов клиентов. Но истец доказал в суде, что предоставленная ему версия не обладает указанной функциональностью, и взыскал денежные средства. ЗаключениеИскусственный интеллект трансформирует бизнес-среду, открывая новые возможности и создавая уникальные правовые вызовы. В условиях отсутствия единого глобального подхода к регулированию ИИ юристы оказываются на передовой формирования практики, зачастую самостоятельно создавая новые юридические конструкции. Они должны не только глубоко разбираться в технических аспектах ИИ, но и уметь адаптировать существующие правовые нормы к новым реалиям. Основные задачи юриста в компании, которая занимается созданием и внедрением систем ИИ, включают в себя управление рисками, связанными с использованием и обучением ИИ, контроль над соблюдением прав и требований третьих лиц при обучении нейросетей и обеспечение прозрачности взаимодействий с конечными пользователями. Важно помнить, что эффективное правовое сопровождение ИИ в бизнесе — это не только вопрос соблюдения текущих законодательных норм, но и проактивная работа по их адаптации и развитию, которая позволит обеспечить стабильное и безопасное использование инновационных технологий в будущем. Источник – Право Ru: https://pravo.ru/opinion/254978/ |
|
Прочитавших: 509 Топ-5 самых читаемых Новостей за последние 30 дней:
Новости «Городисский и Партнёры» расширяет практику в области франчайзинга [863] |
|