Свободный софт и искусственный интеллект
Aug. 1st, 2021 07:51 am![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
FSF объявила сбор статей на тему гитхабовского Copilot и его соотношения со свободными лицензиями.
Вообще действительно интересная тема:
- Если нейросеть обучается на текстах защищенных копирайтом, является ли это fair use или нет?
- Вероятно ли что в результате подсказок copilot-а пользователем будет написан код, который можно будет счесть derived work того кода, на котором copilot обучался.
- Если может - то как это обнаружить.
- Является ли модель машинного обучения, созданная в результате тренировки AI на некотором массиве текстов, компилированной фораой этого текста, или она что-то другое, вроде написанного человеком реферата?
- Может ли AI/ML model быть защищена копирайтом.
- Надо ли организациям защищающим этику в hightech, таким как FSF и EFF предлагать какие-то изменения в копирайтном законодательстве в связи с появлением этой проблемы.
Лично моё мнение - робот имеет такое же право читать тексты и учиться на них, как и человек. Оригинальный манифест GNU был именно про право учиться на чужом коде. То что исходный код самого робота закрыт и нетиражируем, это, конечно, плохо, но это скорее значит что надо другого робота написать, который бы распространялся по свободной лицензии.
А так в общем, робот, который подсказывает как надо решать задачи - это хорошо. Роботы, который подсказывают "как не надо" - находят в коде плохие, чреватые уязвимостями или неопределенным поведением, уже в компиляторы встроены. Правда, они к сожалению плохо находят фрагменты кода, неудобные для восприятияя человеком.
no subject
Date: 2021-08-01 10:13 am (UTC)no subject
Date: 2021-08-01 10:15 am (UTC)no subject
Date: 2021-08-02 12:18 pm (UTC)Если этого робота натренировать на исходниках офиса, он такое будет подсказывать....
Даже в открытых исходниках полно такого кода, за который авторам должно быть стыдно. А они знают что это будут люди читать. В проприетарных же продуктах в оснновно такое творится что на это можно сказать только "Infernal error. Черт сломал ногу, пытаясь разобраться в вашем коде".
no subject
Date: 2021-08-01 10:39 am (UTC)Ах если бы! По-моему, этот робот (совершенно независимо от этических вопросов заимствования кода) окончательно выдаёт нужду за добродетель. У нас как-то уже смирились с тем, что 90% времени программиста -- это не программирование в исходном смысле, не реализация идей, а рефакторинг и попытка что-то сделать с чужими (ну ладно, своими предыдущими) косяками. Но до сих пор всё это стояло на фундаменте 10% честного программирования в исходном смысле (я старательно избегаю слова "творчество"), а этот робот пытается заставить тебя с самого начала исправлять плохой код за искусственным идиотом. По крайней мере, судя по тем немногочисленным примерам, что я видел.
... А мой кибер бросит писать стихи и начнёт слушать музыку ...
no subject
Date: 2021-08-01 11:49 am (UTC)Что значит как-то смирились? Так и должно быть. Это называется (в широком смысле) этап эксплуатации. Машину/самолет/какой-то физический массово производимый предмет проектируют и делают тысячи и десятки тысяч человек. А пользуются ими, чинят, приспосабливают под свои требования - миллионы. Вот и с софтом так же.
Это вот преобладающее почему-то в индустрии "будешь/хочу что-то новое создавать" - это какое-то отклонение.
no subject
Date: 2021-08-01 02:03 pm (UTC)Представил себе полностью автоматизированный роботический завод, из ворот которого выходят сломанные автомобили. Причём правдоподобно сломанные -- с хорошей имитацией следов пробега и всего такого (я не водитель, я не очень разбираюсь). А дальше их прямо оттуда, продолжением конвейера, развозят по человеческим ремонтным мастерским, где и доводят до пригодного к эксплуатации вида. С идеей, что сломанный автомобиль -- это всё-таки лучше, чем никакого автомобиля, и отремонтировать всё равно дешевле, чем сделать с нуля. Всё равно сюр какой-то, надо фантастический рассказ написать.
P.S. Задумался: вот у нас типа мир одноразовых вещей, за "право на ремонт" люди борются. А исходники мы постоянно ремонтируем. Нет ли здесь какого-то противоречия?
P.P.S. Это я скорее хозяину журнала пишу, чем Вам. Извините, если мимо кассы!
... That which does not kill us makes us stranger ...
no subject
Date: 2021-08-01 02:32 pm (UTC)Железку можно будет разобрать/заменить детали/переделать и починить как тебе нравится. И даже запчасти и инструмент для этого будут. Вот только сначала придется понять, как железка работает и что там внутри этого черного ящика сломалось и сломалось ли. Потому что написать учебник/документацию по всему вот этому - этого никто не обещал и даже мало кто умеет.
no subject
Date: 2021-08-01 05:06 pm (UTC)no subject
Date: 2021-08-02 06:17 pm (UTC)no subject
Date: 2021-08-01 02:54 pm (UTC)no subject
Date: 2021-08-02 06:20 pm (UTC)Превратить отрицание в отверждение - любимый баг яндекса например. Причём по тексту перевода вообще не понятно, что что-то пошло не так.
no subject
Date: 2021-08-02 07:47 pm (UTC)Я так делал и это адище. Это как стирать белую штору в борще, а потом вручную полоскать в воде - вообще в теории можно сделать так, чтобы борща стало не видно, но очень трудоёмко. Электроперевод сегодня недалеко ушёл от анекдотов про промт из нулевых. Синтаксис стал корректный, семантика и стиль - нет.
no subject
Date: 2021-08-01 11:07 am (UTC)no subject
Date: 2021-08-01 12:17 pm (UTC)По сути - конечно это fair use, "естественные нейросети" ведь точно так же обучаются ровно на том же самом. А формально конечно же опять выйдет сущее издевательство в стиле "да, знаем что фалломорфировали, но денег очень хочется".
no subject
Date: 2021-08-01 02:14 pm (UTC)no subject
Date: 2021-08-01 07:35 pm (UTC)Наверное, нет. Поскольку человеческий мозг - это тоже нейросеть, а человекам на чтение кода нужна лицензия.
> Вероятно ли что в результате подсказок copilot-а пользователем будет написан код, который можно
> будет счесть derived work того кода, на котором copilot обучался.
Ну, скажем, маловероятно. Если, конечно, copilot не обучался ровно на одном экземпляре ПО и не выдаёт его полностью после нажатия любой клавиши.
> Если может - то как это обнаружить.
В общем случае - наверное, никак.
> Является ли модель машинного обучения, созданная в результате тренировки AI на некотором
> массиве текстов, компилированной фораой этого текста, или она что-то другое, вроде написанного
> человеком реферата?
А с человеческим мозгом как?
> Может ли AI/ML model быть защищена копирайтом.
Как сейчас - не знаю. Но, на мой взгляд, какая-то форма защиты должна быть.
no subject
Date: 2021-08-02 05:53 am (UTC)Какая нафиг нужна лицензия? Мы про FSF.
A program is “free software” if the program’s users have the four essential freedoms:
Соответственно, если copilon может рассматриваться как program user или как инструмент этого юзера, то право изучать как программа работает ему уже выдано. Как и любому другому субъекту, способному её прочитать.
no subject
Date: 2021-08-02 10:42 am (UTC)Ну, например, цитирование статьи с целью её обсуждения - это fair use. Независимо от лицензии.
Насколько я понимаю, речь именно об этой доктрине, а не о том, можно ли роботам читать именно GPL'ный код.
no subject
Date: 2021-08-02 11:31 am (UTC)Тут все достаточно тесно связано.
С одной стороны fair use это не про то, чтобы читать, предполагается что оно применяется уже к тем видам работ, которые читать по определению можно и нужно, а про то, чтобы писать про прочинанное.
С другой стороны идеология FSF и проекта GNU - это про то, что код есть текст, и его нужно не только выполнять, но и читать, изучать как он работает.
no subject
Date: 2021-08-02 01:08 pm (UTC)А вот не факт. Вот представь: тебе продали годовую лицензию на некий софт, моделирующий процессы, происходящие в ядерных реакторах, и дали исходники для аудита. Специально сказали: "Для аудита".
Дальше три варианта:
1. Ты провёл аудит, обнаружил говнокод и, пообщавшись с разработчиками и ничего от них не добившись, пишешь статью: "Ребята, не берите, там есть вот такое вот, и разработчики не хотят это исправлять". С цитатами.
2. Ты обучил на этом коде какую-то компьютерную нейросеть, и теперь она по комментарию "создать функцию расчёта поведения ядерного реактора" вставляет предоставленные для аудита исходники. Ты, может, сам не ожидал, что она такое сможет, а она смогла.
3. Ты обучил на этом коде какую-то биологическую нейросеть, и теперь она пишет софт аналогичного назначения.
С 1 и 3 всё понятно. Вопрос про 2. Так вот мне кажется, что не следует обучать нейросети на чужом коде, лицензия которого подобное не разрешает. От греха подальше. А вот прогнать код через нейросеть для анализа - это можно.
no subject
Date: 2021-08-02 01:40 pm (UTC)fair use это вообще не про код, а про художественную литературу. К коду применяется by extension.
А исходники которые дают под обязательство никому не показывать меня не интересуют. Их надо вообще уничтожать нахрен вместе с правообладателями. Потому что люди которые стесняются показать всему миру свой код, тем самым признают что их код уродлив.
Меня интересует позиция FSF. У которого исходники показывают всем, и более того ограничивают разными способами (LGPL - поменьше, AGPL побольше) право скрывать то, что ты на базе этих исходников сделал.
no subject
Date: 2021-08-02 05:29 pm (UTC)Насколько я понимаю, эта доктрина одинаково хорошо работает в отношении любых результатов творчества. Вопрос о том, что является или не является fair use, решается по-разному, но последствия одинаковы.
> Потому что люди которые стесняются показать всему миру свой код, тем самым признают что их код уродлив.
Дело может быть не в качестве кода, а в очень нетривиальных алгоритмах и математике, которые в нём содержатся. Ну, например,
Код расчёта ядерной бомбы я бы тоже не стал показывать кому попало.
no subject
Date: 2021-08-02 07:54 pm (UTC)Делаем нейросеть, которая смотрит на фото паллет и бите "полата доехала или нет не рассыпавшись". Насмотревшись на паллеты, которые укладывал алгоритм вашего юзернейма, она научилась укладывать паллеты сравним хорошо. Смотреть на паллеты разрешено. Кто виноват и что делать?
Про ядерную бонбу - это отдельная дискуссия "бывают ли запретные знания и темы, которые не стоит вскрывать?"
no subject
Date: 2021-08-02 08:26 pm (UTC)1. И сколько товара придётся перепортить, обучая такую нейросеть? Ведь без отрицательных примеров она ничему не научится.
2. Ок, теперь у нас есть нейросеть, которая знает, рассыпется паллета или нет. Как она поможет роботу укладывать паллеты так, чтобы они не рассыпались? Полный перебор имеет экспоненциальную сложность и не работает.
Но в принципе - пусть учится, конечно, это не запрещено. Можно даже на паллетах, уложенных биороботами.
no subject
Date: 2021-08-05 02:14 pm (UTC)- Является ли результат FMRT (которым научились читать образы из мозга человека) интеллектуальной собственностью организации, проводящей исследование, или собственностью человека-владельца мозга?