Искусственный интеллект в Китае: правовое регулирование и судебная практика

Ожидается, что к концу 2024 года объем китайского рынка искусственного интеллекта (ИИ) превысит 34 миллиарда долларов США. Китай занимает второе место после США в рейтинге 20 ведущих стран в области ИИ (стран с наибольшим исследовательским потенциалом). Таким образом, нет ничего удивительного в том, что Китай является одной из первых стран в мире, разрабатывающих законодательное регулирование ИИ.

В течение 2023 года китайское правительство приложило значительные усилия, чтобы создать правовую базу для обучения ИИ и предоставления услуг, связанных с ИИ. В этом обзоре мы рассмотрим законодательное регулирование, которое действует сейчас в Китае, и наиболее важные судебные решения на сегодняшний день.

Регулирование генеративного искусственного интеллекта

В августе 2023 года в Китае вступили в силу «Временные правила оказания услуг с использованием ИИ» (Правила)[1]. В целом Правила налагают определенные обязательства на поставщиков услуг, связанных с ИИ. Поставщики таких услуг должны:

  • Предоставлять безопасные услуги;
  • Предлагать пользователям подробные и понятные лицензионные соглашения, в которых описаны все функции сервиса искусственного интеллекта, а также права и обязанности сторон;
  • Размещать форму обратной связи на платформе, обеспечивать быстрое реагирование на запросы пользователей;
  • Сохранять конфиденциальность данных пользователей;
  • Удалять или редактировать персональные данные по запросам пользователей;
  • Удалять контент, нарушающий законодательство, сразу после его обнаружения;
  • Если поставщики услуг обнаружат, что пользователи используют сервисы искусственного интеллекта для совершения незаконных действий, они должны ограничить функционал или приостановить предоставление услуг и сообщить о возникшей ситуации уполномоченным органам.

Как поставщики, так и разработчики услуг искусственного интеллекта должны соблюдать положения законов о персональных данных (использовать личную информацию на законных основаниях, таких как согласие субъекта данных) и законодательство об авторском праве; уважать право на честь, достоинство и деловую репутацию.

Прежде чем предоставлять услуги пользователям, разработчики ИИ должны тренировать ИИ на основе доступных данных. Они должны постоянно повышать точность, объективность и разнообразие данных, используемых для обучения ИИ. Должны быть приняты меры для предотвращения любого рода дискриминации (при обучении ИИ и предоставлении услуг).

Таким образом, как процесс предоставления услуг, связанных с ИИ, так и процесс обучения ИИ в Китае законодательно урегулированы. Требования к поставщикам услуг достаточно строгие: они должны отслеживать и немедленно удалять любой нелегальный контент, следить за тем, чтобы сервисы использовалась в целях, не противоречащих закону, и даже принимать меры для предотвращения зависимости несовершеннолетних пользователей от сервисов искусственного интеллекта.

Регулирование дипфейк-технологий

Ранее в прошлом году правительство Китая приняло Положение о дипфейках (далее – Положение). Оно вступило в силу в январе 2023 года.

Технология глубокого синтеза (deep synthesis), которая используется при создании дипфейков, определяется в Положении как «технология, использующая генеративные и/или синтетические алгоритмы, такие как глубокое обучение (deep learning) и виртуальная реальность, для создания текста, графики, аудио, видео или виртуальных сцен». Определение очень широкое, и это можно считать недостатком существующего регулирования. Однако такая дефиниция позволит адаптировать Положение к любой новой форме технологий дипфейк в будущем.

Основные требования к поставщикам услуг, связанных с технологиями дипфейк, следующие:

  • Соблюдение законодательства о защите персональных данных;
  • Установление критериев и процессов для определения ложной информации;
  • Мониторинг фейковых новостей, созданных с использованием технологий дипфейк, и представление отчетов соответствующим органам;
  • Внедрение системы аутентификации пользователей с использованием реальных персональных данных;
  • Регулярная оценка безопасности.

Как мы видим, все эти меры направлены на то, чтобы сделать процесс использования технологий дипфейк прозрачным, предотвратить распространение ложной информации и деанонимизировать пользователей сервисов. Эти положения могут предотвратить использование технологий дипфейк в незаконной деятельности.

Проект закона об ИИ

Правительство Китая также объявило о работе над проектом закона об ИИ, который обеспечит комплексное регулирование. В настоящий момент текст законопроекта уже доступен.

Проект содержит важные положения, касающиеся авторского права. Он устанавливает, что в зависимости от степени участия пользователя в создании окончательной версии контента, контент, созданный с помощью искусственного интеллекта, может быть объектом авторского права или патентных прав.

Другие важные положения связаны с безопасностью пользователей. Проект определяет систему оценки рисков, которая должна быть проведена перед предоставлением пользователям доступа к технологиям искусственного интеллекта, и меры по обеспечению безопасности технологий искусственного интеллекта.

Судебная практика

В то время как законодатель в Китае пытаются создать правовую базу для сервисов искусственного интеллекта, судьям уже приходится рассматривать дела и принимать решения. За последние месяцы китайские суды вынесли 2 важных решения по делам, связанным с ИИ. Эти кейсы отражают существующее регулирование и восприятие ИИ в Китае и могут также повлиять на финальный текст закона об ИИ и другие будущие законы.

Авторское право на работы, созданные с помощью ИИ

В ноябре 2023 года Пекинский интернет-суд Китая вынес важное решение по делу, связанному с нарушением авторских прав.

Истец создал изображение девушки, используя Stable Diffusion (модель искусственного интеллекта, преобразующую текст в изображение). Он дал все необходимые инструкции модели искусственного интеллекта для создания изображения, а также изменил изображение, используя настройки приложения. После этого он разместил изображение на своей странице в социальной сети, пометив его как #AI Drawing (изображение, созданное с помощью ИИ).

Узнав, что другой пользователь опубликовал изображение на другой платформе без получения согласия истца, предполагаемый автор изображения обратился в суд.

Пекинскому суду предстояло определить: 1) существует ли вообще авторское право на изображение, созданное искусственным интеллектом; 2) если ответ на первый вопрос положительный, то кому принадлежит такое право.

При вынесении решения суд учел 2 характеристики авторского права: творческий, интеллектуальный вклад автора и оригинальность. Суд постановил, что в данном случае интеллектуальный вклад был достаточным, поскольку истец давал ИИ подробные инструкции по созданию изображения. Что касается оригинальности, суд установил, что с помощью инструкций, настроек и фильтров истец создал уникальное изображение, которое не смог бы создать никто другой. Соответственно, суд постановил, что рассматриваемое изображение является художественным произведением, которое защищается авторским правом.

Кроме того, суд постановил, что ни сам ИИ, ни разработчик Stable Diffusion не могут считаться авторами произведения. Таким образом, пользователь, который контролировал создание изображения (истец), является автором и правообладателем.

Право на голос и ИИ

В апреле 2024 года тот же китайский суд признал, что несанкционированное использование голоса человека для обучения ИИ является незаконным.

Истцом в этом деле был актер дубляжа, который обнаружил, что его голос используется на разных интернет-платформах, в том числе тех, которые позволяют преобразовывать текст в устную речь. Выяснилось, что компания-разработчик программного обеспечения использовала его голос для обучения модели искусственного интеллекта.

Была проведена судебная экспертиза, в ходе которой было доказано, что голос ИИ очень похож на голос истца, хотя и несколько измененный. Для выявления сходства суд использовал такие характеристики, как тембр, интонация, стиль произношения. Хотя компания-разработчик программного обеспечения получила записи с голосом истца от медиа-компании, обладавшей исключительными правами на такие записи, суд решил, что медиа-компания по-прежнему не имеет права разрешать другим лицам использовать голос истца для обучения искусственного интеллекта (спорная точка зрения).

Таким образом, суд постановил, что несанкционированное использование голоса человека представляет собой нарушение права на голос, и назначил компенсацию в размере 250 000 юаней (около 35 000 долларов США).

Это знаковое решение защитило права человека, чей голос широко использовался на различных платформах без какого-либо разрешения. Суд в этом деле признал существование права человека на звучание его голоса, в дальнейшем этот вывод может быть использован в решениях по аналогичным делам.

Выводы

Искусственный интеллект – это сложная тема, связанная со множеством неудобных вопросов, от «заменят ли нас роботы?» до «смогут ли все подряд подделывать мои фотографии?» Хотя во многих странах нет специального регулирования ИИ, китайские законодатели и правоохранительные органы уже подготовили некоторые ответы на эти вопросы. Существующее в Китае законодательство уделяет особое внимание защите персональных данных на этапе обучения ИИ, защите авторских прав, выявлению недостоверной информации, прозрачности и безопасности сервисов.

В целом, Китай является одним из первопроходцев в сфере правового регулирования ИИ. Поскольку в России пока нет специального регулирования ИИ, при создании соответствующей правовой базы мы можем позаимствовать некоторые «находки» у Китая. Мы продолжим следить за новостями китайского законодательства в сфере ИИ и напишем о законе об искусственном интеллекте, когда он вступит в силу.

[1] Текст на английском: https://www.chinalawtranslate.com/en/generative-ai-interim/

 
Вера Зотова
Старший юрист, к.ю.н.

+7 931 210 50 03
Санкт-Петербург

 
Ольга Нечаева
Младший юрист

+7 921 639 65 71
Санкт-Петербург