微软的 GitHub 最近宣布了一项名为 Copilot 的新服务。该服务使用机器学习来帮助开发人员在编写软件时向他们推荐代码片段。 GitHub 用托管在 GitHub 上的代码训练了这个神经网络;虽然自由软件基金会 (FSF) 敦促自由软件开发人员不要在 GitHub 上托管他们的代码,但许多人这样做,甚至许多人的工作没有被其他人镜像。从我们的角度来看,我们已经知道 Copilot 的现状是不可接受和不公正的。它需要运行非自由/自由的软件(Visual Studio 或 Visual Studio Code 的一部分),而 Copilot 是作为软件替代的服务。就我们而言,这些都是已解决的问题。自由软件基金会收到了许多关于我们在这些问题上的立场的询问。我们可以看到 Copilot 使用自由许可软件对自由软件社区的很大一部分具有许多影响。开发人员想知道在他们的软件上训练神经网络是否真的可以被视为合理使用。如果从 GitHub 托管的存储库复制的代码片段和其他元素可能会导致侵犯版权,则其他可能对使用 Copilotwonder 感兴趣的人。即使一切都可能在法律上是合乎情理的,但活动家们想知道,一家专有软件公司在他们的工作中构建服务是否存在根本不公平的问题。对于所有这些问题,其中许多具有法律含义,乍一看之前可能没有在法庭上进行过测试,但没有多少简单的答案。为了获得社区所需的答案,并确定在该领域捍卫用户自由的最佳机会,FSF 宣布了一项资助白皮书,以解决 Copilot、版权、机器学习和自由软件问题。我们将阅读提交的白皮书,并发布我们认为有助于阐明问题的白皮书。我们将为我们发表的论文提供 500 美元的货币奖励。我们还将考虑对资金的要求,以进行进一步的研究,从而为以后的论文提供支持。虽然与 Copilot 对自由软件的影响相关的任何主题都可能在范围内,但以下问题特别令人感兴趣:
Copilot 的输出对 GPL 许可作品的违规行为产生可诉的索赔的可能性有多大?开发人员如何确保他们拥有版权的任何代码都受到保护,免受 Copilot 生成的违规行为的影响?有没有办法让使用 Copilot 的开发人员遵守 GPL 等免费软件许可证?如果 Copilot 生成的代码确实会导致违反自由软件许可作品的行为,版权所有者如何才能发现基础作品的这种违规行为?机器学习产生的训练有素的人工智能 (AI) / 机器学习 (ML) 模型是训练数据的编译版本,还是其他东西,比如用户可以通过进一步训练来修改的源代码?像 FSF 这样的道德倡导组织是否应该主张修改与这些问题相关的版权法?必须在 2021 年 8 月 23 日星期一东部夏令时间上午 10 点(UTC 时间 14:00)之前通过电子邮件发送至 [email protected] 收到提交的内容。
论文应涉及上述一个或多个感兴趣的领域。我们更喜欢将自由软件运动社区作为目标受众的论文,但会考虑为法律专业人士撰写的论文。我们建议作者在提交论文之前获得他人的反馈。虽然我们可能会在审核后建议或要求更改,但论文提交后应准备好发表。白皮书本身不应包含任何损害作者匿名的信息,因此可以将其发送给审阅者。所有文档都应以可编辑的自由格式提交,例如 OpenDocument 或纯文本(不是 DOC 或 DOCX)。我们建议用英文写论文,但可以考虑其他语言的论文。 FSF 委员会将在 2021 年 9 月 20 日星期一之前通过电子邮件向主要联系人发送接受、拒绝、问题或可能的修改请求的通知。
如果您的提交被选中发表,我们将与您联系以选择出版物的许可。我们希望就以下列表中的一个或多个达成一致:我们强烈希望公布作者的姓名,但根据作者的要求,我们可能同意隐瞒他们的姓名。有关白皮书提交或审查和接受过程的任何问题,请联系 [email protected]。图片版权 © 2021 Free Software Foundation, Inc.,根据知识共享署名 4.0 国际许可获得许可。