Во время посещения сайта Вы соглашаетесь с использованием файлов cookie, которые указаны в Политике обработки персональных данных.

Профессор ВШЭ предупредил о судебных исках за коммерческое использование нейросетей

Профессор ВШЭ предупредил о судебных исках за коммерческое использование нейросетейФото ИИ youtvnews.ru

Нейросети на грани закона как избежать авторских ловушек

Профессор Вадим Виноградов, декан факультета права НИУ ВШЭ, предупредил о возможных нарушениях авторских прав и связанных с ними юридических последствиях для тех, кто использует технологии искусственного интеллекта для создания контента в коммерческих целях. Об этом информирует издание Ura.ru, отмечая растущую озабоченность экспертного сообщества по этому вопросу.

"Контент, созданный с помощью ИИ, может нарушать чьи-то авторские права. Например, автоматический рерайт чужих текстов с помощью ИИ может привести к неявному копированию оригинальных формулировок, структуры и стиля. Особенно рискованно использовать такие материалы в коммерческих целях - для сайтов, рекламы или мобильных приложений", - заявил Виноградов.

Специалист уточнил, что при коммерческом применении таких материалов ответственность за возможные правонарушения ложится на того, кто осуществляет публикацию или распространение спорного контента, а не на разработчика нейросети. Эту информацию передает "Газета.ru".

Виноградов подчеркнул, что искусственный интеллект, вне зависимости от уровня его развития, не может считаться автором произведения. Если действия пользователя сводятся к выполнению простой задачи, например, к элементарному "нажатию кнопки", то полученный результат, как правило, не приобретает статуса объекта авторского права.

Юрист разъяснил, что согласно действующему законодательству Российской Федерации, автором может быть исключительно человек, который внес творческий вклад в создание произведения, поскольку искусственный интеллект не является субъектом авторских прав.

"Однако, если человек осуществляет сложный итеративный процесс - формулирует детализированные запросы (промпты), производит существенную редактуру и творческую доработку результата - такой процесс может быть квалифицирован как творческий вклад, достаточный для возникновения авторства у пользователя", - пояснил профессор Виноградов.

Он также напомнил, что защита авторским правом охватывает широкий спектр произведений, включая не только художественные тексты, но и рекламные материалы, интерфейсы программных продуктов и обучающие курсы.

По словам эксперта, основная проблема в работе нейросетей заключается в принципе их обучения: системы ИИ обрабатывают огромные массивы данных, которые могут содержать объекты, защищенные авторским правом. Как следствие, генерируемый контент может непреднамеренно воспроизводить элементы чужих произведений, будь то текстовые или графические материалы.

Виноградов также упомянул о введении новых ГОСТов в России с 2025 года, которые будут регулировать технические аспекты работы с контентом, созданным с помощью искусственного интеллекта. Эти стандарты не затрагивают напрямую вопросы авторского права, но могут быть использованы в суде в качестве дополнительного аргумента при оценке объема творческого вклада пользователя.

Для уменьшения юридических рисков эксперт рекомендует:

  • фиксировать все этапы создания контента, сохраняя версии промптов и внесенных изменений;
  • выбирать платформы, которые используют лицензированные базы данных и предлагают средства правовой защиты;
  • проверять уникальность сгенерированных результатов до их публикации.

Все началось с того, что Сергей Боярский, глава комитета Госдумы по информационной политике, предложил ввести обязательную маркировку для материалов, созданных искусственным интеллектом, таких как тексты и изображения. Он выразил убеждение, что потребители имеют право знать, кто является автором контента – человек или нейросеть. Эта инициатива открыла широкую дискуссию о правовом регулировании использования ИИ. В контексте этих обсуждений все чаще поднимаются вопросы потенциальных нарушений авторских прав, особенно при коммерческом применении генеративных моделей. Таким образом, проблема ответственности за созданный ИИ-контент становится все более острой.

...

  • 0

Популярное

Последние новости