Свободный софт и искусственный интеллект
Aug. 1st, 2021 07:51 am![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
FSF объявила сбор статей на тему гитхабовского Copilot и его соотношения со свободными лицензиями.
Вообще действительно интересная тема:
- Если нейросеть обучается на текстах защищенных копирайтом, является ли это fair use или нет?
- Вероятно ли что в результате подсказок copilot-а пользователем будет написан код, который можно будет счесть derived work того кода, на котором copilot обучался.
- Если может - то как это обнаружить.
- Является ли модель машинного обучения, созданная в результате тренировки AI на некотором массиве текстов, компилированной фораой этого текста, или она что-то другое, вроде написанного человеком реферата?
- Может ли AI/ML model быть защищена копирайтом.
- Надо ли организациям защищающим этику в hightech, таким как FSF и EFF предлагать какие-то изменения в копирайтном законодательстве в связи с появлением этой проблемы.
Лично моё мнение - робот имеет такое же право читать тексты и учиться на них, как и человек. Оригинальный манифест GNU был именно про право учиться на чужом коде. То что исходный код самого робота закрыт и нетиражируем, это, конечно, плохо, но это скорее значит что надо другого робота написать, который бы распространялся по свободной лицензии.
А так в общем, робот, который подсказывает как надо решать задачи - это хорошо. Роботы, который подсказывают "как не надо" - находят в коде плохие, чреватые уязвимостями или неопределенным поведением, уже в компиляторы встроены. Правда, они к сожалению плохо находят фрагменты кода, неудобные для восприятияя человеком.
no subject
Date: 2021-08-02 11:31 am (UTC)Тут все достаточно тесно связано.
С одной стороны fair use это не про то, чтобы читать, предполагается что оно применяется уже к тем видам работ, которые читать по определению можно и нужно, а про то, чтобы писать про прочинанное.
С другой стороны идеология FSF и проекта GNU - это про то, что код есть текст, и его нужно не только выполнять, но и читать, изучать как он работает.
no subject
Date: 2021-08-02 01:08 pm (UTC)А вот не факт. Вот представь: тебе продали годовую лицензию на некий софт, моделирующий процессы, происходящие в ядерных реакторах, и дали исходники для аудита. Специально сказали: "Для аудита".
Дальше три варианта:
1. Ты провёл аудит, обнаружил говнокод и, пообщавшись с разработчиками и ничего от них не добившись, пишешь статью: "Ребята, не берите, там есть вот такое вот, и разработчики не хотят это исправлять". С цитатами.
2. Ты обучил на этом коде какую-то компьютерную нейросеть, и теперь она по комментарию "создать функцию расчёта поведения ядерного реактора" вставляет предоставленные для аудита исходники. Ты, может, сам не ожидал, что она такое сможет, а она смогла.
3. Ты обучил на этом коде какую-то биологическую нейросеть, и теперь она пишет софт аналогичного назначения.
С 1 и 3 всё понятно. Вопрос про 2. Так вот мне кажется, что не следует обучать нейросети на чужом коде, лицензия которого подобное не разрешает. От греха подальше. А вот прогнать код через нейросеть для анализа - это можно.
no subject
Date: 2021-08-02 01:40 pm (UTC)fair use это вообще не про код, а про художественную литературу. К коду применяется by extension.
А исходники которые дают под обязательство никому не показывать меня не интересуют. Их надо вообще уничтожать нахрен вместе с правообладателями. Потому что люди которые стесняются показать всему миру свой код, тем самым признают что их код уродлив.
Меня интересует позиция FSF. У которого исходники показывают всем, и более того ограничивают разными способами (LGPL - поменьше, AGPL побольше) право скрывать то, что ты на базе этих исходников сделал.
no subject
Date: 2021-08-02 05:29 pm (UTC)Насколько я понимаю, эта доктрина одинаково хорошо работает в отношении любых результатов творчества. Вопрос о том, что является или не является fair use, решается по-разному, но последствия одинаковы.
> Потому что люди которые стесняются показать всему миру свой код, тем самым признают что их код уродлив.
Дело может быть не в качестве кода, а в очень нетривиальных алгоритмах и математике, которые в нём содержатся. Ну, например,
Код расчёта ядерной бомбы я бы тоже не стал показывать кому попало.
no subject
Date: 2021-08-02 07:54 pm (UTC)Делаем нейросеть, которая смотрит на фото паллет и бите "полата доехала или нет не рассыпавшись". Насмотревшись на паллеты, которые укладывал алгоритм вашего юзернейма, она научилась укладывать паллеты сравним хорошо. Смотреть на паллеты разрешено. Кто виноват и что делать?
Про ядерную бонбу - это отдельная дискуссия "бывают ли запретные знания и темы, которые не стоит вскрывать?"
no subject
Date: 2021-08-02 08:26 pm (UTC)1. И сколько товара придётся перепортить, обучая такую нейросеть? Ведь без отрицательных примеров она ничему не научится.
2. Ок, теперь у нас есть нейросеть, которая знает, рассыпется паллета или нет. Как она поможет роботу укладывать паллеты так, чтобы они не рассыпались? Полный перебор имеет экспоненциальную сложность и не работает.
Но в принципе - пусть учится, конечно, это не запрещено. Можно даже на паллетах, уложенных биороботами.