Microsoft может стать ответчиком в суде за нарушение авторских прав » mogilew.by
 

Microsoft может стать ответчиком в суде за нарушение авторских прав

GitHub Copilot Microsoft искусственный интеллект авторское право суд программирование разработка код OpenAI
Инструмент на основе ИИ может генерировать код других разработчиков, нарушая их авторские права.
Microsoft может стать ответчиком в суде за нарушение авторских прав

Юрист, дизайнер и разработчик Мэтью Баттерик объявил, что он
ищет возможность подачи иска
о нарушении авторских прав против GitHub. Обнаружилось, что ИИ-инструмент для автоматизации программирования GitHub Copilot, обученный на основе общедоступного исходного кода в Интернете, создает код, который защищен авторским правом.
Баттерик критиковал Copilot с момента его запуска. В
июне он утверждал , что любой сгенерированный код может содержать скрытые нарушения лицензии или интеллектуальной собственности, и поэтому Copilot следует избегать.
По словам Баттерика, большая часть открытого исходного кода защищена лицензией, которая налагает дополнительные юридические требования. На данный момент юрист выясняет, соответствует ли Copilot этим требованиям.
Нарушения авторского права и дословное копирование чужого кода выявились на прошлой неделе, когда Тим Дэвис, профессор компьютерных наук и инженерии Техасского университета A&M,
обнаружил , что Copilot при появлении запроса воспроизводит защищенный авторским правом код транспонирования разреженных матриц. Представители Microsoft и GitHub не прокомментировали эту ситуацию.
Согласно документации Copilot, выходные данные могут содержать «нежелательные шаблоны», а ответственность за нарушение прав интеллектуальной собственности возлагается на пользователя Copilot. То есть, если вы используете Copilot для автозаполнения кода и на вас подадут в суд, отвечать за нарушения будете вы.
Microsoft и OpenAI представили GitHub Copilot
в июне 2021 года . Это ИИ-сервис, который работает как «напарник» программиста — просматривает существующий код, комментарии к нему и расположение курсора, а затем предлагает добавить одну или несколько строк в зависимости от контекста.
Уже после выхода инструмента разработчиков призывали отказаться от использования Copilot.

SECURITYLAB.RU
рейтинг: 
  • Не нравится
  • +141
  • Нравится
ПОДЕЛИТЬСЯ:

ОСТАВИТЬ КОММЕНТАРИЙ
иконка
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
Новости