Свободный софт и искусственный интеллект
Aug. 1st, 2021 07:51 am![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
FSF объявила сбор статей на тему гитхабовского Copilot и его соотношения со свободными лицензиями.
Вообще действительно интересная тема:
- Если нейросеть обучается на текстах защищенных копирайтом, является ли это fair use или нет?
- Вероятно ли что в результате подсказок copilot-а пользователем будет написан код, который можно будет счесть derived work того кода, на котором copilot обучался.
- Если может - то как это обнаружить.
- Является ли модель машинного обучения, созданная в результате тренировки AI на некотором массиве текстов, компилированной фораой этого текста, или она что-то другое, вроде написанного человеком реферата?
- Может ли AI/ML model быть защищена копирайтом.
- Надо ли организациям защищающим этику в hightech, таким как FSF и EFF предлагать какие-то изменения в копирайтном законодательстве в связи с появлением этой проблемы.
Лично моё мнение - робот имеет такое же право читать тексты и учиться на них, как и человек. Оригинальный манифест GNU был именно про право учиться на чужом коде. То что исходный код самого робота закрыт и нетиражируем, это, конечно, плохо, но это скорее значит что надо другого робота написать, который бы распространялся по свободной лицензии.
А так в общем, робот, который подсказывает как надо решать задачи - это хорошо. Роботы, который подсказывают "как не надо" - находят в коде плохие, чреватые уязвимостями или неопределенным поведением, уже в компиляторы встроены. Правда, они к сожалению плохо находят фрагменты кода, неудобные для восприятияя человеком.
no subject
Date: 2021-08-02 01:40 pm (UTC)fair use это вообще не про код, а про художественную литературу. К коду применяется by extension.
А исходники которые дают под обязательство никому не показывать меня не интересуют. Их надо вообще уничтожать нахрен вместе с правообладателями. Потому что люди которые стесняются показать всему миру свой код, тем самым признают что их код уродлив.
Меня интересует позиция FSF. У которого исходники показывают всем, и более того ограничивают разными способами (LGPL - поменьше, AGPL побольше) право скрывать то, что ты на базе этих исходников сделал.
no subject
Date: 2021-08-02 05:29 pm (UTC)Насколько я понимаю, эта доктрина одинаково хорошо работает в отношении любых результатов творчества. Вопрос о том, что является или не является fair use, решается по-разному, но последствия одинаковы.
> Потому что люди которые стесняются показать всему миру свой код, тем самым признают что их код уродлив.
Дело может быть не в качестве кода, а в очень нетривиальных алгоритмах и математике, которые в нём содержатся. Ну, например,
Код расчёта ядерной бомбы я бы тоже не стал показывать кому попало.
no subject
Date: 2021-08-02 07:54 pm (UTC)Делаем нейросеть, которая смотрит на фото паллет и бите "полата доехала или нет не рассыпавшись". Насмотревшись на паллеты, которые укладывал алгоритм вашего юзернейма, она научилась укладывать паллеты сравним хорошо. Смотреть на паллеты разрешено. Кто виноват и что делать?
Про ядерную бонбу - это отдельная дискуссия "бывают ли запретные знания и темы, которые не стоит вскрывать?"
no subject
Date: 2021-08-02 08:26 pm (UTC)1. И сколько товара придётся перепортить, обучая такую нейросеть? Ведь без отрицательных примеров она ничему не научится.
2. Ок, теперь у нас есть нейросеть, которая знает, рассыпется паллета или нет. Как она поможет роботу укладывать паллеты так, чтобы они не рассыпались? Полный перебор имеет экспоненциальную сложность и не работает.
Но в принципе - пусть учится, конечно, это не запрещено. Можно даже на паллетах, уложенных биороботами.