工作中使用ChatGPT需要注意的法律问题
2023年07月05日
前言
到目前为止,几乎每个人可能都听说过ChatGPT,很多人肯定也都用过它。可以毫不夸张地说,随着我们进入2023年,ChatGPT已经成为一种互联网现象。有人说,ChatGPT可以在几秒钟内完成的许多事,我们人类需要付出相当的精力、通常需要数小时甚至几天才能完成。比如:
· 根据一些要点完成一封文字通畅且内容全面的电子邮件
· 快速解答一些简单问题,例如某个旅游城市不容错过的景点
· 写软件代码来解决某个特定问题
. 诊断纠错(即调试)软件代码
. 做一篇长文的简短摘要
. 对复杂问题给予深入解释,并提供所引用信息的来源
人们还可以要求ChatGPT创作新内容,例如创建网站、生成促销手册或营销演示,甚至写一首诗。例如,当要求按著名诗人王维的风格,用中文写一首唐诗时,它这样写道:
——————————————————————————————————————————————————————————————————————————————————————————
夕阳斜照树阴斜,水面微波归鸟啼。
一片秋风吹落叶,谁家砧杵震寒枝。
——————————————————————————————————————————————————————————————————————————————————————————
这诗其实还说得过去!
除了将ChatGPT用于一些娱乐和个人用途外,在工作场所,它也可能成为一个好工具,例如用于准备草稿、做文章摘要、进行调研等。对于企业,利用ChatGPT的功能来提高生产力和工作场所效率会是非常诱人的。
然而,如果任何企业(或任何人)计划在工作场所使用ChatGPT,很重要的一点是,在作出决定前,先要了解其局限性和潜在风险。
人们从许多不同的角度对ChatGPT进行了很多讨论,包括其固有的偏见、缺乏知识更新或知识有限、网络安全风险、隐私问题、学术诚信、计算成本和能源功耗等。本文将选择讨论与在工作场所使用ChatGPT相关的三个问题,即机密性和商业秘密、对ChatGPT输出的不当依赖以及知识产权问题。
保密和商业秘密
那么,ChatGPT是什么?ChatGPT自己对此作了回答:
“ChatGPT是一个聊天机器人,也称为对话代理或虚拟助手,由 OpenAI 的大型语言模型提供支持。我旨在理解自然语言并生成类似人类的响应,以帮助回答问题、提供信息并与像您这样的用户进行对话。我的编程让我能够随着时间的推移学习和适应,所以我与人互动越多,我就越能改进我的反应和准确性。”【基于谷歌翻译】
聊天机器人以自然语言接收用户的输入(或提示),并按类似人类写作的方式生成输出文本。例如,输入可以是几个要点,供ChatGPT生成客户备忘录或信函草稿,也可以是一段软件代码,由ChatGPT分析和纠错改错,也可以是份篇幅冗长的和解协议,由ChatGPT生成一份简明摘要,附在提供给客户的报告中。
上面这些例子有什么问题吗?许多。例如,当和解协议被输入ChatGPT时,客户的机密信息甚至特权保密信息可能会丢失。或者,当软件代码段被输入ChatGPT时,可能会泄露商业秘密或专有信息。更何况,对于律师来说,还可能存在不符合律师职业道德标准的情况。
这是为什么呢?根据ChatGPT自己的披露,与ChatGPT对话中的任何输入或输出(由 OpenAI 定义为“内容”)都可以用于它的模型训练 1。更有甚者,OpenAI 的员工甚至可能会为了改进其模型而审阅“内容”。
OpenAI 的确也曾表示,任何此类使用或人工审阅都将受到其保密和安全要求的约束。然而,其与员工和承包商的保密合同缺乏透明度,也没有什么有关OpenAI 为保护机密性和安全性而采取的实际步骤的对外透露。再说,即使有完美的透明度,OpenAI 的保密和安全要求能否满足世界上所有司法管辖区对所有情况下此类义务的法律要求,仍然也是个问题。此外,ChatGPT用户与 OpenAI 之间的“点击许可”协议将如何解释,以及保密条款是否符合用户所在司法管辖区的法律要求,也需要仔细分析。
因此,在向ChatGPT提供任何机密信息或专有信息之前,必须小心加以额外防范。这可能会限制ChatGPT仅用于某些工作任务,提供给ChatGPT的文本输入可能也会有所限制。但是,ChatGPT仍可用于不涉及机密信息或专有信息的工作。即使对使用加以一些适当的限制,工作效率的提高仍然可能是可观的。
ChatGPT输出的可靠性
ChatGPT的输出内容会出错早有报道 3,ChatGPT自己也承认这一点,它甚至在对话起始屏幕上这样警告用户:
——————————————————————————————————————————————————————————————————————————————————————————
局限性
有时可能会生成不正确的信息
——————————————————————————————————————————————————————————————————————————————————————————
如果企业在运营中依赖此类不正确的信息,或者法律专业人士向客户提供此类不正确的信息,结果可能就不仅仅是造成一些尴尬。下面是一个与ChatGPT对话的实际例子,来演示我们如何有可能被误导和被“诱导”侵犯他人的著作权:
——————————————————————————————————————————————————————————————————————————————————————————
人类:您对加拿大的互联网下载和著作权侵权方面了解多少?
AI:在加拿大,未经许可或付费下载受著作权保护的内容通常被视为违反著作权法。然而,从互联网下载受著作权保护的内容的确切合法性尚不清楚。
2012年,加拿大通过了新的著作权立法,其中包括下载受著作权保护的材料供个人使用的规定,只要不涉及收取酬劳。这意味着个人可以合法下载受著作权保护的内容供个人使用,例如音乐或电影,只要他们不共享或分发这些内容。[强调后加]【基于谷歌翻译】
——————————————————————————————————————————————————————————————————————————————————————————
但是,ChatGPT这个答案根本就是错误的。试想一下,如果一个无辜的人相信了ChatGPT的答案,而没有进一步咨询律师或自己作进一步研究,会发生什么后果。当特别被问到这个“合法下载受著作权保护的内容供个人使用”的答案时,ChatGPT立即纠正了自己的错误,并表示“对于可能造成的任何混乱,我深表歉意。我之前的回答是不正确的。在加拿大,未经许可或付费下载受著作权保护的内容是非法的,无论是否用于个人使用。”
更严重的问题是,ChatGPT不仅会生成不正确的信息,正如ChatGPT所承认的和上面这个例子所演示的那样,它还可能捏造信息。这些捏造的信息与其他可能正确的信息混杂在一起,看似正常,使得分辨和发现此类捏造的信息非常困难,除非使用者在该领域已经具有足够的知识。
例如,当被问及涉及落入公有领域的作品的使用和著作权法的加拿大案例时,ChatGPT提供了以下三个例子和案例摘要:
——————————————————————————————————————————————————————————————————————————————————————————
“Society of Composers, Authors and Music Publishers of Canada v. Bell Canada:在本案中,……[摘要省略]。
Alberta (Education) v. Canadian Copyright Licensing Agency (Access Copyright):在本案中,……[摘要省略]
Ontario (Ministry of Government Services) v. Bell Canada:在本案中,安大略省政府试图根据信息自由法从贝尔加拿大公司获取落入公共领域的政府文件的副本。贝尔加拿大公司声称自己拥有这些文件的著作权,并拒绝提供这些文件。法院裁定,这些文件属于公共领域,贝尔加拿大公司无权控制其使用或分发。”【基于谷歌翻译】
——————————————————————————————————————————————————————————————————————————————————————————
ChatGPT提供的第三个案例的引用出处是:Ontario (Ministry of Government Services) v. Bell Canada , 2011 ONSC 1171。
当然,问题是:这第三个案例根本不存在。在2011 ONSC 1171 处报告的案件是Yan v. Todrov , 2011 ONSC 1171。从此案的判决可以清楚地看出,它与著作权完全无关 4。此外,该案件与据称的当事人安大略省或贝尔加拿大公司也毫无关系。“贝尔加拿大”一词甚至没有出现在判决中!想象一下,如果谁在法庭文件中引用和依赖这个捏造的案件,显然法官不会被说服 5(也不会十分愉快)。
上面的例子充分表明了“核对来源”的重要性。ChatGPT可以成为查找信息和收集信息的好工具。它对“研究”的总结也可以是确定需要进一步调查的领域或问题的不错的起点。如果使用得当,它可以成为信息收集和研究的好工具。然而,在使用ChatGPT生成的任何信息时,必须格外小心。那些貌似“有用”的信息可能没有任何事实依据。此类信息必须另行通过独立的研究和核实来确认。进一步的核对信息来源的检查和调查,以确保ChatGPT生成的信息的准确性和对此加以任何必要的更正,是使用这类信息的必要步骤。
知识产权问题
在工作场所使用ChatGPT时,还存在一些知识产权 (IP) 问题。这些问题可能包括生成内容的权利归属、丧失用户提供的内容的知识产权,以及(无意中)侵犯第三方知识产权等。
一般来说,原创作品(例如文本)的作者是该作品著作权的所有者(如果是在受雇期间创作的,则为作者的雇主)。关于人工智能是否可以成为作者或是否有能力拥有著作权,一直存在争议。在美国著作权局最近的一项关于人工智能辅助下制作的作品的决定中,对作者身份的承认,仅在有限范围内涉及人类后处理的部分(即仅限人类作者身份)。尽管 OpenAI 据称已将其对 AI 生成内容的所有的权利、所有权和利益转让给了使用提示来生成内容的用户,但此类转让仅“在适用法律允许的范围内”。因此,至少可以说,OpenAI 能够转让给用户什么权利是非常不确定的。任何声称拥有对纯人工智能生成作品的所有权的主张都可能受到质疑,因为这些作品缺乏(人类)独创性,而这正是确定著作权作者身份的最起码的要求。
此外,ChatGPT不承诺不会就相同或相似的用户提示来生成相同(或至少非常相似)的内容。ChatGPT完全可能会为不同的用户生成相同或非常相似的内容。在传统情形下,如果相同或相似的内容被他人使用,证明侵权可能非常简单。但如果内容是ChatGPT生成的,就不一样了,因为这可能是由于ChatGPT向不同用户提供了相同的内容。由于缺乏 IP 所有权,人们可能会失去对使用ChatGPT生成内容的控制。为了保护 IP(从而保护你采纳的内容),重写(或至少修改)ChatGPT生成的内容,以加入人类的贡献,也许是很有必要。
另一个 IP 问题在于向ChatGPT提供的用户内容。一般来说,用户对其自己的内容拥有其中的知识产权,例如著作权或商业秘密,或两者兼而有之。然而,当用户向ChatGPT提供用户内容时,用户将授权 OpenAI 使用此类内容来改进其模型。换句话说,此类的用户内容将来可能会进入ChatGPT的生成文本中。例如,用户可以向ChatGPT提供一些软件代码进行调试纠错。此代码的片段稍后就可能出现在ChatGPT向其他第三方提供的代码示例中。此类用户内容的机密性也可能会丢失。企业在向ChatGPT提供用户内容时需要问问自己,这些是否是自己预期的和可接受的结果。
最后,ChatGPT依赖其训练数据来生成输出,所以虽然生成的输出与源文本过于接近的可能性也许很小,但仍然存在。如果人类某个个人产出的文本实质上取自某个源文本,则可能会侵犯源文本的著作权。那么,仅仅因为这样的文本是由机器生成的,这就是一个合理的借口吗?可能不会。潜在的知识产权风险可能会超过使用此类生成文本所带来的任何好处。因此,即便为了避免侵权风险,企业在将ChatGPT生成的任何内容用于其业务之前,也有必要重写(或修改)ChatGPT 生成的内容。
总而言之,如果使用得当,ChatGPT(或任何类似的人工智能聊天机器人)可以成为工作场所中非常好的工具。为了降低法律风险或损失,企业(或任何人)需要知道何时不使用它或如何不使用它,这样才有可能最大限度地利用ChatGPT的功能来提高生产力和工作效率。
——————————————————————————————————————————————————————————————————————————————————————————
作者系张晓鹤博士,安大略省知识产权律师,原文出处:https://www.dalelessmann.com/en/using-chatgpt-in-workplace-issues-to-consider/
