首页 期刊简介 最新目录 过往期刊 在线投稿 欢迎订阅 访客留言 联系我们
新版网站改版了,欢迎提出建议。
访客留言
邮箱:
留言:
  
联系我们

合作经济与科技杂志社

地址:石家庄市建设南大街21号

邮编:050011

电话:0311-86049879
友情链接
·中国知网 ·万方数据
·北京超星 ·重庆维普
信用/法制
生成式人工智能风险预防探究
第729期 作者:□文/范佳丽 时间:2024/5/16 9:18:36 浏览:97次
  [提要] ChatGPT是当代技术智慧结晶,依托于互联网运用到各行业,以速度快、操作简单给人类的生活带来便利,但其自身的不确定也带来潜在的法律和伦理风险。生成式人工智能创作物是否适用著作权法所调整还应根据创作物外在表现形式的不同加以区分,技术本身也应明确伦理要求以便回应立法者的立法原意,服务于行业发展和文化创作传播的初衷。为预防潜在的风险,还需通过提高生成式人工智能的伦理教育、明确人工智能创作物的作品属性以及厘清著作权权利主体分配规则等措施最终实现主体间的利益平衡。
关键词:生成式人工智能;著作权;风险规制;利益平衡
中图分类号:D9 文献标识码:A
收录日期:2023年9月9日
自2022年11月30日Open AI发布ChatGPT以来,生成式人工智能受到全球科技产业的广泛关注。《生成式人工智能服务管理办法(征求意见稿)》中指出,生成式人工智能是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。技术进步提升效率和生产力的同时也带来伦理风险。与此同时,对于侵权的认定标准也引发争议。本文将运用生成式人工智能技术所生成的内容的风险称为人工智能创作物风险。在上述背景下,本文以人工智能生成物潜在风险为中心,剖析现行规定对生成式人工智能技术及创作物存在的风险类型及理论困境。结合我国客观实践发展,探讨兼顾平衡主体利益和促进行业健康发展的方案。
一、问题的提出
ChatGPT自问世以来始终处于焦点位置,它主要通过对话的方式自行分析然后生成相应内容。人工智能最先由美国学者John McCarthy提出,是在计算机上通过人为植入的数据和算法模拟人类大脑。目前人工智能主要分强人工智能和弱人工智能两种。强人工智能像人类一样深化学习思考,以战胜世界围棋冠军的人工智能为例,它某种程度上实现类人化操作。弱人工智能以智能手机、电脑为代表,依赖设定的算法进行程序性操作。通过分析可以归纳出人工智能的共同特征。首先,“速度”,人工智能可以在较短的时间获取资料;其次,“效率”,人工智能无需休息,能节省机械重复的基础性工作所耗费的时间;最后,“质量”,人工智能创作物与人类创作物的质量相比瑕疵少。随着人工智能的广泛运用,各种风险随之产生。虽然我国对人工智能的研究起步较晚,但是对生成式人工智能风险的规制高度重视。在司法实践中,人工智能引发的著作权纠纷对我国现有的著作权法提出挑战,对于人工智能创作物的著作权保护在缺乏明确法律规制的情形下,只能依靠法官理解进行裁判,极易导致同案不同判的现象。此外,网络匿名的背后释放人心中的恶念,一旦缺乏相应的伦理约束,就会产生社会风险。面对新型生成式人工智能,部分学者开始探讨如何平衡发展与治理的关系,确保生成式人工智能安全可控发展是当下亟须关注的重要议题。
二、生成式人工智能潜在风险类型
(一)技术上引发社会安全伦理风险。生成式人工智能通过分析输入的训练样本然后模仿生成相应的内容,达到以假乱真的效果。与简单的PS不同,生成式人工智能还会学习目标对象的微表情、语音等生物特征。比如我们熟知的明星塌房后,影视剧组通过AI换脸技术节省成本。再比如体现人文关怀精神的老照片复活。使用生成式人工智能制造高度逼真的以人脸替换为代表的深度伪造技术在自动驾驶、医疗诊断和娱乐教育等方面都起着重要作用,但其灵活以及难以甄别的效果一旦滥用就会对社会甚至国家的安全造成威胁。2021年底,新东方教育董事长俞敏洪一段“搞钱万能论”的主题视频在网络流传,后来该视频被证明是语言合成技术生成的。如果在伪造的政府官员的视频中宣扬种族歧视等内容,带来的就不仅仅是错误价值观,毫无疑问也会造成社会恐慌,引发社会风险。
而且生成式人工智能所带来的恐怖影响不局限于此,它逐渐“走向政坛”衍变成国家间新的舆论战争。美国《2019年全球威胁评估》已经提到这项技术会对美国的国家安全造成威胁,是针对盟友合作的影响渗透运动。在此之前就已有类似事件发生,2017年卡塔尔国家官方推特账号被黑客攻击后,散播了卡塔尔元首关于伊朗和伊斯兰教的虚假讲话,引发了海湾邻国的愤怒,该事件与其后的中东外交危机也有一定的关系。在澳大利亚战略政策研究所《深度伪造技术武器化》报告中详细阐述舆论攻防网络信息作战,通过自动评论引发大量用户无意识的行动,不但降低宣称成本,节约时间,还能扩大参与用户的规模,尤其是这种假新闻需要时间才能揭穿,给社会安全增加不稳定的因素。
(二)创作物的保护难以实现司法裁判功能风险。在法律方面,生成式人工智能模仿人类大脑的深度学习,所产出的内容带有界限上的模糊性,谁为产出内容“买单”,由人工智能引发的著作权纠纷首当其冲。通过司法实践中两起代表性案例进行分析。一起是菲林诉百度案,起因是北京菲林律所通过威科先行库的数据分析软件设置检索条件后,得到一份影视娱乐行业司法数据分析报告,再结合自己的结论将该文章上传微信公众平台。百度所经营的百家号删除文章的部分内容和署名在平台上发布。菲林律所在以其署名权、保护作品完整权和信息网络传播权受损为由主张经济损失。最终法院以该作品欠缺人的意思加入否认其享有著作权,但也不能自由使用。另一起是腾讯诉上海盈讯科技侵害著作权纠纷案,是腾讯公司通过人工智能Dreamwriter自动撰写并在文章结尾处注明生成的一篇财经类文章,盈讯科技未经许可就在其网站发表,腾讯公司主张享有涉案文章的著作权及其财产权利。但在本案中,法院认定生成式人工智能创作物属于作品的范畴。两起案件同样是生成式人工智能创作物,却出现截然相反的判决结果。至于学界与实务界目前对人工智能生成物是否属于著作权法下的作品更是观点不一。人工智能创作物是否属于著作权法所规定的作品,人工智能能否作为一个独立的主体取得相关的权利,显然法律对创作物的保护不清使司法裁判难以保持一致性去发挥裁判的指引功能。
三、生成式人工智能风险预防理论困境
世界各国对于生成式人工智能的研究属于初期阶段,供参考借鉴的经验相对较少。目前我国确实对生成式人工智能内容风险规制的立法已经走在世界前列,在发布《生成式人工智能管理办法意见稿》以及生效的部门规章《深度合成管理规定》采用了“深度合成”的概念,既涵盖生成式人工智能技术也涵盖了生成式人工智能创作物。条文中规定人工智能生成内容不得危害国家政权、社会主义制度以及国家安全、公共安全、社会秩序以及公序良俗,不得损害个人名誉以及其他合法权益,不得侵犯知识产权,不得生成虚假信息以及针对个人的歧视性内容,且人工智能生成内容应当根据《深度合成管理规定》得到有效标识。但是,理论方面存在的诸多争议导致生成式人工智能风险预防规制上的困难。针对前文提到的潜在风险类型,下文将对规制预防中出现的理论争议进行研讨。
(一)生成式人工智能基本伦理准则宽泛。生成式人工智能在促进科学进步发展的同时也使人担忧,生成式人工智能在学习中形成价值判断屡见不鲜。2017年微软推出的人工智能聊天机器人Tay在上线短短一天时间内通过模仿用户的语言内容,迅速学会种族主义、父权歧视、仇视犹太人的表达后事态失控被迫下线。蒙特利尔人工智能伦理研究所出版的《人工智能伦理道德报告》就指出,人工智能的伦理规制只有宏观原则却缺乏可行性操作的问题会加剧公众对技术失控带来的恐惧。现在学者逐渐开始关注生成式人工智能背景下的数字伦理规范,但是数字伦理本身包含算法伦理、数据伦理与人工智能伦理等领域是一个多层次、多领域的概念。
有研究报告显示,使用者对于伦理准则的认知程度并不是中立的客体,由于地域、年龄包括社会阶层存在的差距,被赋予了与之相关的意义。庞大的受众群体基数下,使用者的伦理素养决定了自身的伦理准则。人工智能领域的复杂性包括群体的价值观和利益诉求是不可避免的问题。要想应对生成式人工智能引发的社会安全伦理问题,除了加强法律层面的监管,还需在实体上设立相应的伦理标准予以引导,并普及全民的数字伦理规范教育,才能为生成式人工智能产业的应用营造良好的环境。
(二)人工智能创作物的属性认定不明确。人工智能创作物的属性认定不明确与两场争论有关:一是人工智能创造物的“作品”之争;二是人工智能创作物的“权属”之争。前者争议它是否属于著作权法所调整的客体,后者争议哪些主体能主张相应权利。学界对于人工智能创造物是否属于“作品”主要看是否满足独创性要件和主体要件。而独创性自身认定标准又可以分为强调创作过程的主观独创性标准和强调创作结果的客观独创性标准。人工智能创作物在主观独创性标准中亦存在分歧,一派认为人工智能所谓的“学习”是在设定好的算法程序下执行的是既定结果,不能体现创作者的独创性。而另一派则主张人工智能作为模仿人类智力活动的智能信息处理系统,其结构与人类智力活动层级依次对应,其创作过程类比人类智能活动。而采用客观独创性标准的学者认为人工智能创作物只需具备结果上的创造性就可以获得著作权法的保护。
主体要件存在的争议则是作品是否一定是人创作完成的,主流观点是应当由人创作完成。当然也有学者提出当前沙特在法律层面已经承认了人工智能可以作为法律意义上的人,并享有与之相关的权利。因此,扩大主体范围,承认人工智能的“人”属性,既可解决主体争议,也可解决权利归属。司法裁判中,“腾讯诉盈科案”的法官则避开主体争论,直接认定人工智能创作物属于作品予以保护。以上争论可见认定标准的复杂性,关系到实践中对人工智能生成物的保护。
(三)人工智能创作物的权利归属混乱。在权属问题上,针对作品的创作者和享有有者不相同出现合作作品、委托作品以及法人作品等规则模式。因为目前人工智能通常被用作辅助性的工具,无法成为独立的权利主体,故涉及人工智能创作物的权利一般被人类所享有。问题是哪些主体可以主张权利?目前在人工智能创作物的权利归属这个问题上有法律拟制说、邻接权保护说、使用者说、设计者说、投资人说等观点。法律拟制说在法律层面对于人工智能的法律人格予以肯定,将权利归属于人工智能本身。但其忽视了对当前社会秩序的冲击,而且康德曾经说过,物只是手段,人才是目的。即便是法律上所规定的法人作品,也无法脱离人的因素单独存在,还是以人为中心展开进行构建。将人工智能赋予“人”的身份,属于强行将“物”解释为“人”。人工智能即便无限接近于人,本质上还是属于物。无论科技如何进步技术,如何成熟,人与物是有本质区别的,物无法作为目的而存在,否则将会颠倒哲学常理,违背主客体统一认识论。邻接权保护说认为人工智能创作物无法受著作权保护时,可以扩张邻接权的范围保护投资者的权益。优点是不再受制与作品存在关联也可以满足兜底性保护,但是法律赋权易会使权利主体滥用导致数据圈地现象的出现,给公共领域造成伤害。故上述两种学说并不是主流观点,保护人工智能创作物的正当性还值得商榷。
使用者说认为,人工智能创作物的生成依赖使用者的意志选择。设计者说认为,人工智能创作物是在设计者给定的范围内进行,即便有使用者数据的挑选,还是间接地贯彻了设计者的意志。投资人说认为,人工智能的研究耗费成本大也需要承担失败的风险,将人工智能创作物的权利归属于投资者,更符合风险与收益对等原则。上述观点各有优缺,投资者说不符合劳动价值理论,设计者说则忽视使用者的筛选对作品产生的直接影响。但若只将相关权利授予使用者,无需技术和资金,借助他人的智力成果就获得了著作权,未免阻碍了人工智能产业的健康发展。因此,尽量兼顾各方利益的情形下,确定人工智能创作物的权利分配标准就尤为关键。
四、生成式人工智能风险预防完善路径
(一)加强数字伦理规范教育。技术的建设与人类的福祉息息相关,在展望生成式人工智能技术发展的过程中,也应当对于道德基础设施予以重视。首先,树立尊重主权和人权的伦理意识。构建网络空间命运共同体是数字技术发展的前景,围绕数字主权的竞争是国家利益的重要组成部分,应当完善全球数字合作机制,实现全球数字环境和平与发展。其次,加强技术人员伦理培养。互联网技术内部的成员若缺乏基本伦理底线,生成的人工智能自然不能做出符合规范的决策。此外,也要加强集体教育,增加相应的课程安排和视频宣传。最后,建立数字伦理保障机制。伦理监管体系的健全是保障规范实施的关键,探索风险等级分类规制路径,实现事前预防与事后监管相结合。
(二)明确人工智能创作物的作品属性。首先,从主体要件看,现阶段还处于弱人工智能阶段。生成式人工智能进行深度学习和数据分析依赖的算法和程序来源于人类,故应以人为中心,遵循作品的创作主体是“人”这一要件。关于部分学者认为人工智能创作物与动物拍照相似,都欠缺创作意识借此否认作品属性。但在笔者看来两者有本质区别。人工智能创作物中人的意志贯穿各个阶段,而动物拍照结果是或然性的,与人的意志毫无关联,取决于动物自身。因此,将创作主体限定于人,不代表否认人工智能创作物的作品属性。其次,在创作物独创性的认定标准上,采用客观标准更为适宜。《著作权法》的立法初衷是为了激励主体参与创作及传播思想。对于作品的“独创性”不像发明、专利那样苛刻,即使出现雷同,只要不抄袭他人智力成果,作品达到“最低限度的创造性”就具备独创性,受著作权法所调整和保护。从这点看,人工智能创作物的结果确实满足最低标准的创造性。退一步说主观标准自身亦存在分歧,实践中司法难以裁定,伴随人工智能技术发展涉及的知识产权侵权问题只会加剧,采取主观独创性认定标准无疑限缩了独创性的判断,使人工智能创作物独立于法律之外,不利于立法初衷的实现。考虑以上因素,关于人工智能创作物的独创性判断,无需关注主体因素,采用客观独创性标准是具有法律基础、符合著作权立法目的和现实趋势的选择。
(三)厘清著作权权利主体分配规则。人工智能技术的复杂和创作物外在表现形式的多样化,使法律不能简单将权利归属于一方主体,应该结合个案中人工智能创作物的创作过程和表现形式综合考虑。首先看主体间事先有无合同约定,有约定按约定分配,没有约定看表现模式是否符合现行著作权法规定的委托作品、合作作品、职务作品。符合的话按照上述作品的认定规则分配,其中委托作品和职务作品比较好辨别,关于合作作品一般看生成创作物的人工智能网站是否有共有的意思表示,没作特别说明应当视作否认。如果不属于上述作品则可参考以下要素认定,包括对人工智能创作物的贡献度,有关主体的收益情况以及创作物的创作过程。以数据筛选的人工智能为例,参与主体是输入关键词进行筛选的使用者,植入算法的设计者以及背后的投资者。投资方和设计者本就对此类创作物产生影响较少,要是研发过程中已经获得收益且后续使用者缴纳相应费用就无须再考虑赋予其权利,否则会降低使用者的积极性,阻碍产业的发展。但是将权利直接归属于使用者,可能会出现滥用人工智能产出创作成果然后主张权利的情形。因此,还需要看使用者对创作物投入的精力,若是缺乏投入成本则可限定仅对“高价值”人工智能创作成果赋予保护,避免低质量作品泛滥。
综上,新技术新产业的发展带来的潜在风险是不可避免地,生成式人工智能类型多样、应用领域广泛,但模糊地带也很多。在风险下如何发展负责任的人工智能需要多方努力,既要考虑社会影响,也要完善法律上的认定标准和权利分配规则,对人工智能技术和生成物加以控制,尽可能在现行的法律体系内提出应对策略,而不是构建复杂的新规则,如此才是促进人工智能产业健康发展的规制路径。
(作者单位:江西理工大学)

主要参考文献:
[1]蔡士林,杨磊.ChatGPT智能机器人应用的风险与协同治理研究[J].情报理论与实践,2023.46(05).
[2]曹建峰.深度伪造技术的法律挑战及应对[J].信息安全与通信保密,2019(10).
[3]王沛楠.西方人工智能的数字伦理规制:困境与进路[J].青年记者,2022(13).
[4]王硕,李秋甫.数字伦理:数字化转型中科学普及的新使命与新规范[J].科普研究,2023.18(03).
[5]狄波拉·勒普顿.数字社会学[M].王明玉,译.上海:上海人民出版社,2022.
[6]王迁.论人工智能生成的内容在著作权法中的定性[J].法律科学(西北政法大学学报),2017.35(05).
[7]蔡自兴.人工智能及其应用(第六版)[M].北京:清华大学出版社,2020.
[8]袁曾.基于功能性视角的人工智能法律人格再审视[J].上海大学学报(社会科学版),2020.37(01).
[9]李扬,李晓宇.康德哲学视点下人工智能生成物的著作权问题探讨[J].法学杂志,2018.39(09).
[10]詹爱岚,姜启.人工智能生成物的邻接权保护探析[J].浙江工业大学学报(社会科学版),2021.20(04).
[11]王朝霞.人工智能生成成果的版权性障碍分析及保护进路探索[J].互联网周刊,2022(11).
[12]陈虎.论人工智能生成内容的邻接权保护——从立论质疑出发的证伪[J].电子知识产权,2019(09).
[13]吴汉东,张平,张晓津.人工智能对知识产权法律保护的挑战[J].中国法律评论,2018(02).
[14]黄姗姗.论人工智能对著作权制度的冲击与应对[J].重庆大学学报(社会科学版),2020.26(01).
[15]杨俊,张晓云.信息库软件智能生成报告的著作权分析——“菲林诉百度案”引发的思考[J].长春大学学报,2020.30(11).
 
版权所有:合作经济与科技杂志社 备案号:冀ICP备12020543号
您是本站第 25685663 位访客