丰色 Alex 发自 凹非寺
量子位 | 公众号 QbitAI
距离正式发布才刚4个月,GitHub Copilot即将迎来一场集体诉讼!
发起人是一位干了20多年的程序员,来自美国的马修·巴特里克(Matthew Butterick)。
他早在今年6月就“捶”了Copilot的开源许可证问题。
现在,马修终于决定迈出实质性的一步,在迅速激活自己的律师资格证后,和其他几位律师一起合作“声讨”Copilot。
(这位老哥身兼数职,除了这俩身份还是设计师)
他在一篇专门的个人博客中细究了Copilot涉及的两大法律问题,并指出Copilot不仅是“偷代码”那么简单,还会对整个开源社区造成诸多不良影响:
或许你不介意它未经许可就用了你的开源代码,但如果它也将由此抹去你和开源社区之间的联结呢?
(若不明白这句话具体何义,请接着往下看~)
目前,这篇博客已在推特上得到了不少关注和转发。
相关消息还引爆了Hacker News社区。
先给不熟悉的朋友简单介绍一下Copilot。
它是内嵌在Visual Studio等IDE中的一个代码自动补全工具,支持多种主流编程语言。
根据已写的内容,它可以给出后续代码建议——不过和我们见到的普通自动补全功能不同,它可以生成诸如整个函数体这样的大段代码。
今年6月,Copilot在经过一年的免费试用后正式转为付费工具,定价为10美元/月(人民币约67元),年付则是100美元/年(人民币约669元)。
它的到来,让很多人都感叹入门级别的程序员没有用了。
不过问题也随之而来。
Copilot强大的编码能力来自于一个叫做Codex的AI,由OpenAI开发并授权给微软。
Codex是怎么训练的呢?
尽管微软含糊其辞,表示它的训练源是数亿行公共代码;但Copilot的研究员还是道出了实情,都是出自于Github上的公共仓库。
好了,马修要状告Copilot的第一个问题,也就跟Copilot的训练过程有关。
马修表示,微软和OpenAI要想用Github上的开源仓库进行训练,要么遵守它们的开源许可证协议,要么「合理使用」。
如果是前者,微软和OpenAI应该至少发布大量的attribution来获得许可,但是大家没有看到。
他们将自己归到了后者,如GitHub前CEO Nat Friedman在Copilot的技术预览会所说:
在公开数据上训练(机器学习)系统属于合理使用。
不过,软件自由保护组织(Software Freedom Conservancy,SFC)不同意这一“空口无凭”的说辞,要求他们提供法律依据来支撑自己的立场。
但是迟迟没有得到答案。
马修表示,这就是因为微软和OpenAI给不出来啊。
第二个可能违法的问题,则是关于Copilot的使用。
马修指出,微软在面对Copilot用户时对自己进行了免责。
微软将Copilot给的代码称为“建议”,称自己不从中主张任何权力,也不对它生成的代码作任何关于正确性、安全性和产权相关的保证。
一旦你接受了Copilot给出的“建议”,如果出了问题都由你自己负责。
乍一听还好,可是不止一人发现Copilot一字不差地把原作者的代码当成“建议”丢给用户,连注释都一并奉送的那种。
这要是直接采纳可就要涉及许可问题了,可是Copilot根本不会注明这些代码的来源,又该让用户如何遵守协议呢?
以上,便是马修要控诉的两大问题。
除此之外,他还表达了对开源社区文化的担忧。
他认为,Copilot的所作所为直接在程序员和开源社区之间砌起了一堵墙,让程序员只管任意享用现成代码,远离源代码本身,失去与源项目的问题讨论、bug跟踪等互动和贡献。
而这对开源社区将是一个永久的、痛苦的损失。
另一边,对于“无故”奉献了训练代码的开源作者来说,他们俨然被当作了资源的生产者。
马修将这类人比喻成奶牛,由于Copilot对他们的项目没有任何贡献,他表示这奶牛是只出奶却不被提供食物和住所的奶牛。
因此,他也将Copilot的本质,比喻为寄生虫。
此外,你可能听闻有人出于愤怒将自己的代码搬出了GitHub。
马修告诉大家:其实微软通过声称训练AI是合理使用,正在搜索网上任何可以使用的公共代码进行训练。
可以说是“逃无可逃”。
于是在避免伤害变得无法弥补之前,马修声称必须弄清Copilot的合法性。
他呼吁以下几类人群加入他们的调查和诉讼队列:
当然在博客最后,马修还是特别声明:
我本身并不反对AI辅助编程工具。
他提到,Copilot本可以也很容易变得“友好”,比如让作者自愿参与,或者有偿征用。
这次,看到有人带头牵起对Copilot的集体诉讼,许多程序员以及计算机相关领域的大佬们纷纷表示:
“附议!”
消息出来之后,德克萨斯A&M大学的一位计算机科学教授,并兼任ACM、IEEE和SIAM会员的Tim Davis顺势发推分享了自己的“遭遇”:
Copilot没有拿到LGPL许可证(函数库公共许可证),就擅自发出了大段我的版权代码。
并附上了证据:
有网友表示:
Copilot的这种行为属于是完全不尊重开源社区。
还有网友犀利地指出,在模型训练过程中,所谓的AI“学习”,本身就是一种被勉强挪用过来的概念:
因为据现有法律,人类阅览受版权保护的资料用于自己学习,是合法的;然后各大科技公司说,AI也会“学习”,所以AI也没有违反版权法。
但是AI并不像人类那样自主(尽管很多公司称AI很自主),这些模型其实都被背后的组织或公司等操控着,所以用“学习”来描述AI做的事并不太准确。
而且真人其实也经常出现会违反版权法等问题……
所以,要定义AI在“学习”过程中到底是否“抄袭”了,以及存在具体哪种侵权行为,是一个非常棘手的问题,还需要更多的讨论和明确规定。
诚然,Copilot从去年的内测阶段起,其出色的编程能力确实惊艳了不少人。
而且这个AI后来还学会了“反向输出”:
用“人话”来讲解某一段代码有什么用,帮助屏幕前的人看懂代码。
但另一方面,不只现在,其实从Copilot刚出来开始,一直就有众多质疑和反对的声音,核心都不外乎马修在前文举证的那两点。(即这个AI的训练和使用)
也正如前文所说,除了个人,还有SFC等组织也在声讨Copilot。
而在今年6月份,GitHub宣布Copilot结束内测,开启收费模式后,更是将大家的不满情绪拔到了最高点。
除了免费引流再收费的商业模式让人反感外,大家一致认为这的AI用开发者写的代码来训练,不应该回过头向再开发者收费:
每一个曾向GitHub提交过代码的人都应免费使用!
于是,Copilot正式版立刻遭到了抵制——
SFC不仅自己要退出GitHub,而且还号召其他软件开发商同样照做。
在VS Code插件市场上,Copilot原本一直是5星好评,也一下子涌入了不少一星差评。
本次事件还让人把目光延伸到了AI绘画领域,有网友认为:
这种工具同样也涉及侵权等问题。
最后,对于“大伙儿现在联合把Copilot告上法庭”这件事,你觉得赢的胜算大吗?
参考链接:
[1]https://githubcopilotinvestigation.com/
[2]https://twitter.com/DocSparse/status/1581461734665367554
[3]https://news.ycombinator.com/item?id=33240341
p1美国移民 找中介还是律师,美国留学看的是雅思还是托福
许多刚接触雅思考试的新手都涉及这样的困惑:不出国还有必要进行雅思考试吗?四六级考试结束后还有必要参加雅思考试吗?雅思和四六级考试差别是怎样?今天小编就... 时间:2023-01-21找律师小程序开源项目,找律师小程序开源项目可靠吗
丰色 Alex 发自 凹非寺量子位 | 公众号 QbitAI距离正式发布才刚4个月,GitHub Copilot即将迎来一场集体诉讼!发起人是一位干了20多年的程序员,来自美国的马修·... 时间:2023-01-21宁波本地劳动仲裁律师找哪个,拍案说法20181230
劳动争议是咱们老百姓日常生活中最容易接触到的一类法律纠纷。2019年以来,高新区法院共审结劳动争议案件72件,其中劳动合同纠纷、工伤保险待遇纠纷、追索劳动报... 时间:2023-01-21房产继承纠纷律师找律师,北京知名遗产继承律师事务所
遗嘱继承纠纷是遗产继承纠纷中出现最多的,遗嘱继承纠纷案件复杂,一般通过家庭内容协商往往达不到理想的效果,因此,很多遗嘱继承纠纷的当事人都会选择委托... 时间:2023-01-21找律师需要做什么,找律师之前先看这文章,再找不迟了
我作为一名律师,最近看到许多当事人在网上找律师和律师事务所,看到这吗,作为过来人我想提醒大家,现在不骗人的律师事务所很多,不是说什么免费,就是说三天离... 时间:2023-01-21