浅议 ChatGPT 爆火背后的几个法律问题

2023-03-01  作者:朱杰、陈超  
一、一经发布,迅速出圈

2022年11月30日,OpenAI发布了人工智能聊天系统ChatGPT(Chat Generative Pre-trained Transformer),迅速引爆全球。据OpenAI创始人兼CEO山姆·阿尔特曼称,ChatGPT在短短几天后,就吸引了百万用户,上线2个月后,ChatGPT活跃用户已达2亿。


OpenAI是2015年12月由埃隆·马斯克、里德·霍夫曼等人在美国旧金山成立的一家人工智能研究公司,其目标在于制造通用机器人和使用自然语言的聊天机器人。早在2018年,OpenAI就开始发布生成式预训练语言模型GPT,其依靠GPT3跃升成为全球AI领域顶流,直到现在的OpenAI,已是第四代GPT模型。


二、功能强大,缺陷明显

这是一款人工智能技术驱动的自然语言处理工具,其使用了Transformer神经网络构架,拥有语言理解和文本生成能力,能够通过学习和分析人类自然语言进行对话,甚至根据用户的需求生成文本、视频、代码、艺术作品等。同时,ChatGPT还预设了一定的道德水平,能够承认自己的错误、质疑不正确的观点、甚至拒绝用户不合理的请求,如果用户提出的问题包含一些暴力、歧视、犯罪等信息,ChatGPT都会拒绝提供答案。


虽然ChatGPT相比之前的同类AI模型,功能已经得到了很大优化,但是也存在一些缺陷。如ChatGPT的自我介绍中,就提到“能记住早些时候的对话,可以根据用户的提示更正回答方向,但偶尔也会出错,数据库的实时性有待考量”。实际上在许多用户的使用过程中,都发现ChatGPT偶尔会无法辨别用户的语句错误,而只是根据用户提问的关键词进行回答,实际上答非所问。除此之外,ChatGPT的许多回答,看似十分完美和专业,但是都是一些空泛的语段的拼凑,缺乏实际意义,也并不能准确地解决提问。


三、野蛮发展,乱象频出
ChatGPT的局限性以及监管不力等诸多原因,导致了ChatGPT在实际使用过程中乱象频出。

1、被不当使用
比如,国外一项调查显示,美国89%的大学生利用ChatGPT完成作业,令老师头痛不堪,对此,纽约教育系统宣布全面封杀ChatGPT。

2、“山寨”产品横行

如北京日报报道,在微信平台上搜索“ChatGPT”,就能看到“ChatGPT AI”“超级AI”“GPT人工智能AI机器人”“Chat人工智能问答”等数十个公众号搜索结果,甚至还有“ChataGTP”这种在名称上与“ChatGPT”相似度很高却有细微差别的“山寨版”账号。这些“山寨”产品先是通过免费的方式吸引用户,在使用一段时间后进行收费,由此获得巨额利润。还有一些“山寨”产品除了模仿ChatGPT的产品外观及智能对话服务之外,部分产品还声称自己的产品是将ChatGPT的服务通过技术手段直接转接至国内,实际上我国对于转接境外网络服务是需要一定审批手续,并符合相关法律规定。


3、催生不法行业

据报道,在淘宝、咸鱼、京东等平台,发现有商家提供ChatGPT代注册或代问服务,销量极大,一小时入账几万到几十万不等,收入十分可观。虽然目前在大平台上相关代问、代注册等服务链接已被下架或屏蔽,比如在闲鱼平台上输入“ChatGPT”“Chat”“GPT”“Chat 智能对话”等各类相关词条时,都无法搜索到有提供ChatGPT代注册、代问的链接。但仍有漏网之鱼。以“chat ai”“gpt ai”这类较隐蔽的词条搜索时,仍能搜索到部分链接。除此之外,在一些小社交平台,仍然存在一些商家或个体提供类似服务。


四、有关法律问题及分析

综合以上现象,规谷子团队针对ChatGPT这类人工智能暴露出的法律风险进行总结并分析。

要想探寻这类人工模型的法律风险,需要从其运作原理及应用场景两个角度入手。根据相关资料显示,这类人工智能语言模型大多是通过建立一个数据库,对大量的语言文本进行挖掘、分析,统计出人类日常交流中的语言习惯及常见句型,在用户提问后,提取关键词,将最常见的相关用词、语句进行一定规律的组合反馈给用户。虽然ChatGPT在基于大量数据统计的基础上,加入了语言组织能力更强的Transformer模型,相较于以往类似的AI更加智能,但是仍然存在许多风险。ChatGPT主要的应用场景包括客服平台、导航指引、语音控制、文本、代码、视频脚本生成、翻译等。结合以上原理及应用场景,较为常见的法律风险包括虚假信息的发布和传播、侵害知识产权等。


如上可知,ChatGPT是通过统计的方式总结归纳人类常见的语言对话,在一定程度上具备人类沟通的“形”,但无法达到“形神兼备”。很多时候通过关键词反馈的答案看似完美,但是实际上并不准确,甚至和事实相差甚远,如果用户轻信反馈的答案,再加上用户量巨大,极容易造成虚假信息和虚假观点的广泛传播,误导大众,给公共领域和网络监管带来新的挑战。

除此之外,这类任人工智能主要是通过挖掘人类日常交流以及文本,进而统计分析,因此,对于一些受著作权保护的文本、视频、代码等,如果没有经过权利主体的授权,直接获取复制到自己的数据库中,并在此基础上修改、拼凑,极可能侵害他人的著作权。


(一)ChatGPT的生成物能否受到我国著作权法保护?

是否受著作权保护,需要逐一审查该对象是否符合著作权法的规定。包括我国在内的世界上大多数国家的著作权法都认为只有同时具有创作主体资格、独创性、可复制性,才能受到著作权法的保护。


首先,关于人工智能是否能够成为著作权法的创作主体,存在着不同的看法。有的观点严格限定了著作权的主体资格,认为只有自然人、法人或者非法人组织才能成为著作权法意义上的主体,如欧洲专利局认为只有自然人才能获得专利发明、我国《著作权法》第二条规定中国公民、法人或非法人组织和符合条件的外国人、无国籍人的作品享有著作权。同时,王迁教授在《论人工智能生成的内容在著作权法中的定性》中认为,机器因无法从著作权法保护中获得激励,从而无法由此产生创作的动力,因此,人工智能生成物不足以成为著作权法保护的对象,亦无法成为著作权法意义上的权利人。有的观点则结合人工智能的参与主体,适当放宽了限制,根据人工智能生成物是否有人类行为的参与来界定是否具有著作权,如2019年国际保护知识产权协议(AIPPI)发布了《人工智能生成物的版权问题决议》,认为人工智能生成物在其生成过程中有人类干预、且该生成物符合受保护作品应满足的其他条件情况下,能够获得保护,对于生成过程无人类干预的人工智能生成物无法获得版权保护。


其次,人工智能生成过程是否具有独创性,在实践中也存在争议在北京菲林律师事务所诉北京百度网讯科技有限公司著作权侵权纠纷一案中,法院认为检索软件生成的文章不具有独创性,因为即使文章结构、图形类别等会产生不同的变化,但是差异只是由于数据的变化而呈现出来的,并非人工智能创作而来。而深圳南山区法院审理的(2019)粤0305民初14010号一案则认为,涉案软件生成的报告,由于表现的内容体现出对相关股市信息、数据的选择、分析、判断,文章结构合理、表达逻辑清晰,具有一定的独创性。


因此,要判断ChatGPT对话生成的文字是否享有著作权,并不能一概而论。首先需要考虑到生成文本过程是否有人类行为的干预,如果完全由ChatGPT自行生成,那么可能难以受到著作权法的保护。其次,ChatGPT虽然相比以往的AI,智能程度已经有了很大的进步,但是其依旧是基于大量数据的统计和应用生成文本等内容,所生成文本的基础及材料均是来自自然语言文本,通过统计,分析出常用搭配方式再拼凑而成,不具有自己的思想和创新。综上所述,ChatGPT生成的文本等内容很难构成著作权法保护的作品。


(二)市面上声称“转接”ChatGPT服务的相关产品,是否涉嫌违反网络安全法、数据安全法等规定?

首先,通过访问OpenAI的官方网站可以明确知道注册ChatGPT用户应使用境外手机接收验证码注册或者其他两个境外注册的平台账户登录,而大陆地区并不能直接访问ChatGPT的服务,因为ChatGPT的AI服务并未经过我国合法性、安全性审查,ChatGPT未来是否能在境内提供合规服务还有待观察。


我们分阶段来分析:

1、注册、访问阶段

根据目前注册账号以及访问ChatGPT的实际情况来看,如果不使用其他信道进行国际联网是不可能注册和访问到ChatGPT的。

根据《中华人民共和国计算机信息网络国际联网管理暂行规定》第六条:计算机信息网络直接进行国际联网,必须使用邮电部国家公用电信网提供的国际出入口信道。任何单位和个人不得自行建立或者使用其他信道进行国际联网。违反本条的,将受到第十四条规定的处罚:违反本规定第六条、第八条和第十条的规定的,由公安机关责令停止联网,给予警告,可以并处15000元以下的罚款;有违法所得的,没收违法所得。


2、连通ChatGPT的API接口并提供“转接”服务阶段

站在OpenAI的官方角度来看:如注册的账号采用“代收验证码”等方式,隐瞒真实身份和国籍连接ChatGPT的API接口并为“非授权区域”提供服务,将可能违反ChatGPT的软件使用协议,构成软件的使用侵权。


站在我国网络安全和数据安全管理的角度来看:

首先,“转接”服务者首先绕开了国家公用电信网提供的国际出入口信道,为用户提供接入ChatGPT的服务,提供能使他人访问国内IP不能访问的境外网站的“转接”服务,该行为不仅违反了《电信条例》、《互联网信息服务管理办法》,其行为极有可能触犯《刑法》第285条规定的提供侵入、非法控制计算机信息系统程序、工具罪,处最高七年有期徒刑并处罚金。

其次,对于这种未经审查的交互式AI服务,在用于人机对话的过程中,AI的服务是否存在读取摄像头、硬盘、外设等设备的信息并不可知,其安全性和合法性并未得到验证,在理论上将存在很大的信息泄露风险。


如果国内用户的注册信息、或者用户所录入的敏感信息、或者未被用户察觉的重要数据或者敏感数据借此通道被传输至境外,根据《数据安全法》《数据出境安全评估办法》《个人信息保护法》的规定,个人信息处理者因业务等需要,确需向中华人民共和国境外提供个人信息的,应当通过国家网信部门组织的安全评估、经专业机构进行个人信息保护认证等,同时应当向个人告知境外接收方的名称或者姓名、联系方式、处理目的、处理方式、个人信息的种类以及个人向境外接收方行使本法规定权利的方式和程序等事项,并取得个人的单独同意。


数据处理者违反上述规定向境外提供数据的,可能受到省级以上网信部门处理。所以,这种绕开监管的“转接”工具确实具有很大的危害性。


(三)市面上声称的“转接”服务产品,实际质量堪忧,这类“山寨”产品违反了我国哪些法律?

这些行为可能涉嫌违反广告法、商标法、消费者保护法、反不正当竞争法等法律规定。

根据《广告法》第4条、第28条规定,广告不得含有虚假或者引人误解的内容,不得欺骗、误导消费者。广告以虚假或者引人误解的内容欺骗、误导消费者的,构成虚假广告。山寨软件打着正版软件的旗号进行宣传,称用户所接受的服务是由“转接”ChatGPT的AI模型提供的,由此欺骗消费者进行下载,可能构成虚假广告,被市场监督管理部门责令停止宣传,采取措施消除影响并处以罚款的行政责任。


根据《消费者权益保护法》第8条规定,消费者享有知悉其购买、使用的商品或者接受的服务的真实情况的权利。第20条规定经营者向消费者提供有关商品或者服务的质量、性能、用途、有效期限等信息,应当真实、全面,不得作虚假或者引人误解的宣传。消费者合法权益因此受到损害的,经营者应当承担相应民事责任。


同时,山寨软件使用的名称及标志如与正版软件相同或相似,引起他人误认为是他人商品或与他人存在特定联系,可能构成《反不正当竞争法》第6条的商业混淆行为,根据本法第18条规定,经营者违反本法第六条规定实施混淆行为的,由监督检查部门责令停止违法行为,没收违法商品。处以罚款。情节严重的,吊销营业执照。


五、有关建议

ChatGPT功能强大,潜在影响力巨大。但是,弊端也十分明显。

其实我国已经制定了专门的法律规范予以规制,从行为方式、技术措施、伦理道德等不同视角进行了引导,具体包括以下应对方式:

(一)针对虚假信息现象,服务提供者应当加强对信息内容的审核

ChatGPT生成的答案看似完美,但实际上并不准确,容易误导用户的行为,从而引发法律风险。更为可怕的是,这类人工智能生成的答案,看上去与人类的回复无异,对于辨别能力不强的普通用户来说,很容易将这些错误观点当作权威,这些错误观点将会排挤正确的观点,当接收者越来越多,引发的社会负面影响将会凸显。


《互联网信息服务深度合成管理规定》第六条规定,“任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、侵害社会公共利益、侵犯他人合法权益等活动”“不得利用深度合成服务制作、复制、发布、传播虚假新闻信息”。


《互联网信息服务算法推荐管理规定》也明确要求,人工智能的算法应当坚持社会主义主流价值观,不能利用算法危害国家安全和社会公共利益、侵犯他人合法权益。


因此,对于ChatGPT等类似人工智能服务的提供者,应当落实主体责任。建立健全算法机制机理审核、科技伦理审查、用户注册、信息发布审核、数据安全和个人信息保护等管理制度和技术措施,采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核。建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序。一旦发现违法信息的,应当及时采取辟谣、删除或屏蔽等措施,防止信息扩散,保存有关记录,并向有关部门报告。


(二)服务提供者采取措施避免著作权侵权风险

根据《著作权法》第52条规定,未经著作权人许可,禁止发表其作品;禁止篡改、剽窃等行为,否则可能被认定为侵权,承担相应民事责任。因此,对于ChatGPT等类似人工智能服务的提供者,在建立数据库爬取信息之前,应当对数据信息进行审查,首先排除能够明确著作权权利主体的作品,或者在纳入数据库之前,取得权利人的授权,避免著作权侵权风险。其次,尽量获取一些著作权保护期限过期的或者不受著作权保护的数据信息,在基础上为用户提供服务,避免侵权风险。


关于代码生成服务过程中,如果ChatGPT等类似人工智能需要先获取开源代码进行学习理解,然后为用户提供代码生成服务,同样应当遵循所引用的开源许可协议。由于不同的开源代码可能采用的开源许可协议并不相同,有的开源许可协议要求只要引用了部分开源代码,那么整个代码都应该适用同一许可协议并进行开源。ChatGPT生成的代码,很可能会包含开源代码,从而被认定为接受了开源许可协议的约束,当用户直接将生成代码进行使用,存在很大的侵权风险。因此,ChatGPT等类似人工智能在获取开源代码时,应当先了解许可协议的要求,尽可能避免获取“强传染性”许可协议下的开源代码,并且为用户作出明显提示,告知生成的代码某一部分来自于开源代码,应当规范使用。


(三)消费者应当提高防范意识,合理使用人工智能

对于消费者来说,其实使用VPN用于正当目的获取境外网络服务并不是绝对禁止的,即相关企业或个人如果能够通过正当程序,获得主管部门批准,也是可以依法合规地使用VPN服务的。但是在使用过程中,应当符合法律规定,禁止将ChatGPT等类似人工智能用于违法活动。


除此之外,科技创新值得学习和肯定,肆意炒作、扭曲或夸大人工智能的作用则属于别有用心,消费者更应当加强辨别能力,对于一些违法违规提供的服务,应当提高警觉,避免投入金钱后难以获得应有的服务,退费难、维权难,甚至自己陷入法律纠纷。


(四)立法建议

人工智能是否会有利于人类的发展,很大程度上取决于开发和使用的人,因此国家应当加强对人工智能的伦理规制,将伦理道德纳入到人工智能研发和应用的全过程。


比如《新一代人工智能伦理规范》就建议,将伦理道德融入人工智能全生命周期。第三条则明确规定了人工智能的发展应当增进人民福祉、促进公平公正、保护隐私、可控可信、强化责任担当、提升伦理素养等基础伦理规范,要求人工智能的活动应当严格遵守伦理道德指引下的管理规范、研发规范、供应规范和使用规范。


在推动人工智能帮助司法工作的道路上,最高人民法院发布了《关于规范和加强人工智能司法应用的意见》,明确坚持伦理规则先行的人工智能司法应用理念,提出人工智能司法应用需遵循五项基本原则。其中第三项原则明确了人工智能明确了人工智能辅助的结果只能作为参考,司法审判始终只能由审判人员作出。


综上,人工智能的的发展上限必须是不能反人类,必须为人类服务,必须符合社会主义核心价值观。增强全社会人工智能的伦理意识和行为自觉,积极引导负责任的人工智能研发与应用活动,才能促进人工智能健康发展。因此,立法机关还应当就人工智能的开发环节和应用领域,制定专门的规范措施,以期人工智能真正地为人类福祉赋能。


参考文献 

[1]ChatGPT发展历程、原理、技术架构详解和产业未来https://mp.weixin.qq.com/s/VaQsX8icwJDqeXYKYtfrHA

[2]ChatGPT介绍https://mp.weixin.qq.com/s/dg5yt49cJk8nZGqOZTvaSA

[3]一大批ChatGPT扎堆上线,有产品收费999元!律师提醒:小心退费难、维权难!https://mp.weixin.qq.com/s/qoY0rsOtIoMiXEF6FSOm5w

[4]ChatGPT火爆背后有何法律风险?https://mp.weixin.qq.com/s/sMtRcYki9EabxY-f1lvl8Q

[5]一大批ChatGPT扎堆上线,有产品收费999元!律师提醒:小心退费难、维权难!https://mp.weixin.qq.com/s/qoY0rsOtIoMiXEF6FSOm5w

[6]这些“ChatGPT”是假的,小心被骗!https://mp.weixin.qq.com/s/lJJ3FZdIPeudVzwvSDUiWQ

[7]全球首份使用ChatGPT做出的判决书全文https://mp.weixin.qq.com/s/gMFcCmnjWsNfVoI8tX0OhA

[8]https://mp.weixin.qq.com/s/ADs3THNHl4ChbW_obIrvCw
返回