最近,人工
智能机器人ChatGPT迅速走红,其表现出来的强大“创作”功能让公众叹服。那么由ChatGPT“创作”生成的内容可否构成作品?如何看待ChatGPT可能带来的网络治理威胁?本期“声音”版编发一组专家稿件,与读者一道进行探讨。
ChatGPT引发著作权问题新思考
万勇
人工智能作为一项具有颠覆性的新技术,不断对法律、治理提出新挑战。2017年,微软
机器人“小冰”出版诗集《阳光失了玻璃窗》,就受到社会的广泛关注,随即引起了法律界的热烈讨论。
此次伴随着ChatGPT的“一夜成名”,人工智能生成的内容可否构成作品?人工智能是否应被承认为作者……相关话题再次引发各方激烈争论。值得关注的是,多家知名学术期刊已迅即作出反应。《科学》(Science)明确禁止将ChatGPT列为论文作者,且不允许在论文中使用ChatGPT所生成的文本。《自然》(Nature)的态度略微缓和,允许在论文中使用ChatGPT等大型语言模型工具生成的文本,但不能将其列为论文作者。两大顶流学术期刊非常明确的表态,让我们不禁反思“何为作者”“何以创作”这两个对于著作权法与学术研究而言至关重要的基础性问题。
从现行著作权法律制度来看,无论是大陆法系还是英美法系,均排除了人工智能成为作者的可能。大陆法系国家一般规定只有自然Kaiyun官方网站app登录 能成为作者,连法人都不能成为作者。英美法系国家通常以产业发展为导向,因此,在这些国家,除了直接创作作品的自然人之外,法人也可以成为作者。我国著作权法一方面强调,创作作品的自然人是作者;另一方面也规定,由法人或者非法人组织主持,代表法人或者非法人组织意志创作,并由法人或者非法人组织承担责任的作品,法人或者非法人组织视为作者。因此,无论是域外立法还是我国法律规定,在著作权法律制度框架内,除了自然人与法人之外,不存在其他可以成为作者的主体;就此而言,ChatGPT不能成为作者自然是题中应有之义。
不过,著作权法的界定似乎与公众的日常感知有较大差异。从新闻报道来看,ChatGPT可以撰写邮件、代码、小说,通过大学和专业资格考试,还能撰写专业性极高的学术论文,且这些论文甚至连专业研究者也无法轻易分辨。面对如此智能的ChatGPT,公众不禁提出疑问:这不叫创作吗?其还不能成为作者吗?
ChatGPT的技术原理是,依靠从训练数据中学到的模式和关系,来生成风格和内容与训练数据中的文本相似的新文本。尽管ChatGPT也有能力生成以前从未见过的单词、短语和句子的新组合,但这些内容都是基于人预先设定好的程序、算法的结果,ChatGPT并未突破人类辅助工具的范畴。
事实上,ChatGPT在与网友的“聊天”中,自己也承认,“我对生成的文本没有切身经历、想法或创意控制”“我生成的文本旨在用作工具或资源,而不是原创作品”。著作权法意义上的创作,应当是有目的、有意识且具有原创性的行为。ChatGPT显然并未实施著作权法意义上的创作行为,自然不能成为作者。
除了不符合作者的法定构成要件之外,阻碍ChatGPT成为作者的另一个法律障碍,来自其没有独立的责任能力。我们通常所说的“文责自负”,意在强调,如果文章出现问题,责任由作者承担。然而,在人工智能生成内容的语境下,一旦发生著作权纠纷,最终责任的承担者显然不是人工智能。
应当说,知名期刊禁止将人工智能列为作者或者在论文中使用人工智能生成的内容,除了法律层面的考虑外,也意在控制伦理风险。科学技术是一把双刃剑,在推动生产和生活方式发生深刻变革的同时,也带来科技伦理挑战。在科学研究中使用人工智能生成的内容,除了在学术伦理上可能引发是否构成剽窃、学术失范等争议外,还可能存在算法偏见、虚假叙述等一系列伦理风险。科技要创新,伦理应先行,知名期刊率先在学术领域规范人工智能技术的使用,在未来可能进一步形成行业自律规范,有助于引导人工智能发展“科技向善”。
尽管进入人工智能时代后,人类在创造性活动中独一无二的主体地位受到挑战,人类的主体地位似乎有所衰落,有学者甚至提出了人工智能时代就是“后人类时代”这一命题。然而,在人与物的关系上,物永远只应是手段,人永远是目的。让人的创造物——人工智能成为作者,令其获得与人平等的地位,于法无据、于理不合。
(作者系中国人民大学法学院知识产权法教研室主任、教授)
理性应对ChatGPT网络安全威胁
赵精武
聊天机器人ChatGPT的最初功能定位是以贴近人类沟通的方式进行人机互动,但是用户在使用过程中发现,ChatGPT除了能与用户进行正常对话外,甚至能够很好地完成代码、论文、短评、新闻、翻译、邮件等内容的创作,并让人难以分辨其创作者为真人还是机器人。
ChatGPT作为一种现象级产品,表现出的强大功能展现了人工智能技术对社会人力资源分配和产业结构优化的潜在市场价值。但与任何一项新技术
应用一样,ChatGPT也会具有两面性,在提升人类生活品质和工作效率的同时,也有可能因其滥用而产生一些负面的社会效果,特别是其有可能产生网络安全威胁:
第一,ChatGPT的代码编写功能将拓展黑客攻击的技术工具,使得原有的网络攻击呈现更加庞大的规模化趋势。ChatGPT能够辅助黑客高效完成恶意软件的编写,如此一来,针对关键信息基础设施有组织、有规模的网络安全攻击频次将会增加,同时,过去以大型企业为主要目标的攻击模式可能转变为囊括大中小型企业的攻击模式。
第二,ChatGPT的信息编写功能能够辅助网络诈骗分子生成规模化、低成本的网络钓鱼软件,并且生成的诈骗信息由于具有智能化特征,使得被诈骗者识别信息真伪的难度增加。
第三,ChatGPT的信息编写功能可能导致网络虚假信息泛滥,并且网络用户更加难以甄别这些信息的真伪,由此网络空间舆情治理压力势必增加。
针对这些问题,有专家学者提出应对ChatGPT“制定专门立法”“制定配套措施”。实际上,ChatGPT的市场成功不等于人工智能产业取得了突破性发展。考虑到ChatGPT目前能够处理的工作任务具有鲜明的重复性、模板性特征,因此,监管机构没有必要立即将ChatGPT技术监管作为现阶段网络空间治理的核心工作任务,否则,我国立法模式会陷入“出现一项新技术,制定一项新规定”的逻辑怪圈。
其实,我国已先后颁布了网络安全法、《网络信息内容生态治理规定》、《互联网信息服务算法推荐管理规定》等法律法规,针对人工智能技术和算法技术滥用规定了详细的法定义务和监管体系,足以应对短期内ChatGPT可能导致的网络安全风险。现阶段,我国监管部门可以充分利用现有法律制度,加强对ChatGPT相关产业的监管;未来在经验成熟时,可以考虑启动人工智能技术应用领域的立法,以应对各种潜在的安全风险。
首先,重点监管大型企业研发活动,落实人工智能技术标准。ChatGPT对于算法、数据乃至服务器的需求量惊人,具备开发类似产品的主体大多仅限于超大型互联网企业或技术公司。在相关产品投入市场之前,可以利用算法备案机制,对具备影响网络安全和国家安全可能性的产品或服务进行安全性审查。并且,相较于对用户使用行为进行监管而言,从源头上对研发企业进行监管成效更显著,且研发企业也有技术能力对恶意软件代码片段编写功能进行限制。
其次,明确研发机构、网络平台经营者对于人工智能产品应用的安全风险评估义务。ChatGPT及其类似产品本身不具有社会危害性,关键在于以不当方式使用可能导致一定的损害结果。针对ChatGPT可能引发的网络钓鱼邮件等网络诈骗风险,应当明确作为“危险制造者”的研发机构、网络平台经营者在此类产品投入市场之前进行安全风险评估,确保风险可控。
最后,需要关注以人工智能信息审核技术规制人工智能可能诱发的虚假信息泛滥风险。为了避免ChatGPT等人工智能产品大量生成难以通过自动化批量审核的虚假信息内容,监管机构以及网络平台经营者可能需要进一步提升监管技术,充分利用人工智能技术的审核智能化特征,根据ChatGPT这类产品的发展水平和生成信息内容特征,鼓励行业协会、大型企业或第三方专业机构积极推进人工智能违规信息审核产品的研发和推广。