首页 期刊简介 最新目录 过往期刊 在线投稿 欢迎订阅 访客留言 联系我们
新版网站改版了,欢迎提出建议。
访客留言
邮箱:
留言:
  
联系我们

合作经济与科技杂志社

地址:石家庄市建设南大街21号

邮编:050011

电话:0311-86049879
友情链接
·中国知网 ·万方数据
·北京超星 ·重庆维普
信用/法制
生成式人工智能风险识别及对策
第754期 作者:□文/宫玺涵 杨梓怡 李芊睿 邱 晖 时间:2025/6/1 14:01:50 浏览:34次
  [提要] 生成式人工智能凭借其强大的内容生成能力,正引领着科技领域的深刻变革,在优化产业结构、促进经济发展的同时也带来新的法律风险。生成式人工智能在内容生成过程中暗含数据合规、隐私保护、知识产权侵权等风险,为避免上述风险进一步扩大,需针对人工智能构建涵盖预防、监控与处罚的全链条监管体系,实现政府、企业与公众多方协同共治,迈向一种治理型监管范式,以期更好地应对风险与挑战,推动生成式人工智能健康发展。
关键词:生成式人工智能;法律风险;防范路径;监管体系;监管范式
基金项目:辽宁省大学生创新创业训练计划项目:“数字法治视域下生成式人工智能的法律风险及防范路径研究”(项目编号:S202411258080);辽宁省教育厅高等学校基本科研项目:“智能汽车数据法律规制研究”(项目编号:LJ112411258007)。通讯作者:邱晖
中图分类号:D923.41;TP18 文献标识码:A
收录日期:2024年11月5日
生成式人工智能以其强大的内容生成能力,正引领着科技领域的革新。然而,其广泛应用的同时,也伴随着一系列法律风险。数据隐私泄露、算法歧视及知识产权侵犯等问题日益凸显,对社会秩序和个人权益构成潜在威胁。面对这些挑战,各国政府正积极制定法律法规,以期规范生成式人工智能的发展。
一、生成式人工智能理论概述
生成式人工智能作为人工智能的一个重要分支,是基于算法、模型和规则生成文本、图片、声音、视频、代码等内容的技术。它不仅能够识别、处理和分析输入海量数据,还能深入学习和模拟事物的内在规律,创造性地构造出全新且独一无二的文本、图像、音频等形式的内容。其应用领域极为广泛,涵盖了艺术与创意、内容创作、医疗保健、制造业、金融业、营销与广告、教育等众多领域。随着人工智能产业实践的深入发展,人工智能已经成为数字经济时代的重要标志,以人工智能为代表的数字经济将成为中国经济发展的新引擎。
在人工智能技术迅速发展和普遍应用的背景下,一些学者建议部分或全部地肯定机器人的法律主体地位,以应对其可能带来的法律挑战。生成式人工智能可能享有与其功能相关的特定权利,如数据使用权、算法决策权等。但这些权利的具体内容和范围仍需进一步明确。在某些情况下,生成式人工智能可能还需要获得人类的授权或同意才能行使某些权利。同时,生成式人工智能也应遵守法律法规和道德规范,在使用数据和算法时,应尊重他人的隐私和知识产权,不得侵犯他人的合法权益。
为了应对生成式人工智能带来的法律挑战和风险,一些国家和地区已经开始制定相关的法律法规和监管措施,我国也于2023年7月联合七部门发布并施行了《生成式人工智能服务管理暂行办法》。相关法律法规的出台,为生成式人工智能技术的健康、有序、合规发展提供了一些法律保障。
二、生成式人工智能的法律风险
(一)数据安全与隐私保护问题。数据泄露风险是生成式人工智能应用面临的首要挑战。ChatGPT需要进行大量的文本数据进行语言模拟训练,不仅包括其自身数据库中数据,同时也包括网络用户间的交互数据。这些数据中往往蕴含用户的个人信息、交易记录乃至生物特征等敏感数据。若数据保护措施存在疏漏,会对用户隐私造成不可挽回的损害。部分生成式人工智能应用开发者或运营者,为追求算法优化与商业利益,在首次收集数据进行训练环节时,存在利用人对个人信息收集范围不当的问题,以及在收集个人信息过程中未能做到对“知情同意”原则的充分落实。
生成式人工智能算法的高度复杂性是造成用户知情同意机制模糊的主要原因。例如,ChatGPT所采用的神经网络算法除了输入层神经元与输出层神经元之外,还包含隐藏层神经元,用户只能观测到输入端和输出端中的相关信息,而对于隐藏层神经元中的算法分析过程一概不知,这导致了算法黑箱问题加剧,使得用户难以真正了解个人信息是如何被处理的,致使“知情同意”机制在实际操作中存在模糊性。对此,我国的《网络安全法》和《个人信息保护法》均有所规定,如不得违反法定、约定,非法、过度收集个人信息等。但生成式人工智能的实际算法与传统算法差异较大,使得传统的个人信息保护原则难以完全适配这种新的技术模式。
(二)知识产权保护与侵权风险。知识产权滥用现象在生成式AI领域同样不容忽视。生成式人工智能应用的相关知识产权侵权大致可分为大模型训练语料库内容侵权和生成作品被侵权两个层次。生成式AI模型的训练依赖于海量数据,这些数据往往涵盖了丰富的版权内容,如学术论文、文学作品、艺术作品等。若未经版权持有人许可,存在擅自使用这些数据作为训练素材,将直接侵犯原作者的版权权益等情况。同时,大型生成式AI模型主要依赖消化人类文本输入生成输出产品,如文本、图像、音频、视频等,一旦此类输出的信息存在虚假情况,其可能导致对他人名誉权的侵害,例如ChatGPT的“臆造”现象。进一步来说,生成内容的版权归属问题更是悬而未决的难题。生成式AI能够自主创作出看似新颖的文本、图像等内容,但这些“创作物”的版权归属却模糊不清。一部分学者认为,AI系统作为技术工具,其生成的内容应视为开发者或系统本身的成果;也有学者主张,用户在使用AI进行创作时,其输入与AI的算法共同作用于最终成果,因此版权应归属于用户或双方共享。这种争议不仅存在于学术界,也深刻影响着法律实践,亟待明确的法律规范来界定。
(三)算法歧视与伦理道德问题。算法歧视,通常指的是由于算法的设计、训练数据的选择或模型的生成和优化过程中存在的偏见,导致对某些群体的不公平对待。生成式人工智能的算法设计往往依赖于大量数据训练,而数据本身可能蕴含着开发者主观意识、社会偏见等复杂因素。这种偏见在算法的学习过程中被无意识地放大,导致生成式人工智能在生成内容或做出决策时存在明显的倾向性。算法歧视的影响广泛且深远,可能会导致生成式人工智能制造和宣传虚假信息。
伦理道德是指人类社会中普遍认可的道德规范和行为准则,是关于善恶、对错、公正和义务的观念体系。随着生成式人工智能的快速发展,其中人工智能的伦理道德问题日益凸显。人工智能是否具备道德主体地位成为争议的焦点。一部分学者认为,随着人工智能发展到足够复杂程度,能够解决机芯问题等相关伦理学挑战,则应该赋予其道德主体地位,拥有权利和责任。另一部分学者认为,由于缺乏意识和自我意识等原因,人工智能永远无法成为道德行为者。由此可见,由于人工智能的决策过程往往缺乏透明性,难以追溯其背后的逻辑与动机,这导致了伦理道德判断复杂性的进一步加剧,存在一定伦理道德风险。
三、生成式人工智能法律风险规制现状
生成式人工智能的法律风险规制现状呈现出国际间差异显著、国内法规不断完善、监管机制逐步健全的特点。
(一)国际规制现状
1、欧盟的严格监管框架
(1)《人工智能法案》。欧盟在人工智能领域采取了严格的监管措施,其《人工智能法案》是核心法规之一。该法案不仅定义了人工智能系统的范畴,还根据风险等级对人工智能应用进行了分类,并建立了相应的风险防范机制。例如,将高风险人工智能应用列入重点监管对象,要求对其进行严格的安全评估和审查。
(2)伦理准则与监管机制。欧盟制定了人工智能伦理准则,旨在确保人工智能技术的研发和应用符合伦理道德标准。同时,欧盟成立了专门的人工智能监管机构,负责监督和管理人工智能技术的使用和发展。
2、美国的行业自律与标准制定
(1)行业自律组织。在美国,人工智能技术的规制主要依赖于行业自律组织。这些组织通过制定行业标准和规范,引导企业合规研发和应用人工智能技术。例如,美国电气和电子工程师协会(IEEE)制定的人工智能伦理准则,旨在指导企业和社会各界在人工智能技术的研发和应用中遵循伦理道德原则。
(2)法律法规与监管。虽然美国政府在人工智能领域没有制定专门的法律法规,但一些现有的法律法规可以间接适用于人工智能技术的规制。例如,美国宪法中的隐私权保护条款、著作权法等都可以对人工智能技术的使用进行约束。同时,美国政府也通过监管机构对人工智能技术进行监督和管理,确保其合法合规使用。
(二)国内规制现状剖析
1、法律法规体系。其一,在数据安全与隐私保护方面,我国已经出台了一系列与人工智能相关的法律法规,其中数据安全与隐私保护是重点内容之一。例如,《网络安全法》《数据安全法》《个人信息保护法》等法律法规为生成式人工智能的数据安全和隐私保护提供了法律保障。其二,在知识产权与算法歧视方面,我国法律法规对知识产权和算法歧视等问题的规制:《著作权法》等法律法规对生成式人工智能在创作过程中可能涉及的知识产权问题进行了规定;相关法律法规要求人工智能算法必须遵循公平、公正、透明的原则,不得存在歧视性。
2、监管机制与实践。国家网信办、工信部等政府部门制定相关政策、标准和规范,同时建立了协作机制,共同应对生成式人工智能带来的挑战和风险。我国政府部门采取多种措施来加强生成式人工智能的监管和管理。例如,加强对人工智能企业的监管和执法力度;加强对人工智能技术的评估和审查力度;加强对人工智能技术的宣传和教育力度。
四、生成式人工智能法律风险防范措施
生成式人工智能的迅猛发展在带来前所未有的机遇的同时,也引发复杂的挑战。为此,国际社会已着手采取措施以规范生成式AI的应用与发展,旨在确保系统的透明性、可解释性和安全性。
(一)构建全链条监管生态体系。在生成式人工智能的监管领域,构建一套全链条监管生态体系是确保技术健康、有序发展的关键。这一体系涵盖预防、监控与处罚的完整流程,并强调各环节的协同作用与持续优化。
1、事前预防。重点在于构建涵盖数据合规检验、算法透明度提升及风险评估的全方位防御方案。强化数据合规检验,确保数据的隐私与安全;提高算法透明度,采用可解释性算法或模型解释工具,增强公众信任;加强运行风险评估,明确定义和分类风险级别,制定风险管理计划。
2、事中监控。重点在于完善法律法规并强化内容审查。加快制定适用于生成式人工智能的法律框架,明确其范围、限制、用途及法律责任;加强对生成式人工智能准入监管,强化内容审查,特别是针对性别、种族等偏见的审查。
3、事后处罚。重点在于建立与生成式人工智能相匹配的责任制度。明确技术开发者、技术部署者及用户等主要参与者的责任承担范围和方式;建立具体的责任分配机制,遵循“谁管辖,谁负责”的原则;引入激励机制,鼓励行业自律和技术创新。
(二)政府、企业和公众多方协同共治的治理模式。其一,将政府监管与企业自主管理结合。政府促进法律和道德规范的制定,特别是关于数据安全、个人隐私保护及防止算法偏见等方面的规定;企业设定内部技术标准,优化生成式AI系统表现,加强个人信息安全性。其二,政府与企业紧密合作。政府通过政策引导和支持促使企业建立健全内部控制机制,定期开展自查自纠工作;企业积极响应政府政策,确保运营活动符合外部监管要求。其三,增强民众参与度。政府与私营部门联手组织教育宣传活动,普及相关知识;设立便捷高效的投诉渠道,让社会各界能够方便快捷地反映问题并得到及时反馈。
(三)迈向治理型监管范式。治理型监管范式面向以生成式人工智能为代表的新型技术范式展开,以监管权的开放协同、监管方式的多元融合、监管措施的兼容配适为核心特征。
1、监管权的开放协同。政府扮演引导者角色,制定清晰透明的政策与指导方针;建立跨部门协作机制,邀请行业专家、学术界代表以及非政府组织共同参与讨论;支持创建公共平台,让公民参与监督活动。
2、监管方式的多元融合。在技术层面,探索运用区块链等新兴技术提高数据追踪能力和透明度;从制度设计上看,结合软性规制与硬性约束两种模式;加强国际间合作,共同探讨适用于全球范围内的最佳实践方案。
3、监管措施的兼容一致。确保不同层级、不同领域间监管措施的一致性和互补性;所有参与者遵循统一的基本原则,并在此基础上灵活调整具体实施细节;定期举行跨国界或多利益相关方会议,分享经验教训、解决分歧争议,并达成共识。
综上,生成式人工智能作为人工智能领域的重要分支,以其强大的内容生成能力正引领着科技领域的革新。未来,随着生成式人工智能技术的不断发展和完善,我们期待其能够在更加安全、合规的环境中发挥更大的作用,共同创造人工智能时代的美好未来。同时,我们也应持续关注其可能带来的新风险和挑战,并不断探索和完善相应的法律规制和防范策略。
(作者单位:大连大学法学院)

主要参考文献:
[1]刘永红,李文颖.生成式人工智能的法律风险及其规制路径[J].内江师范学院学报,2024.39(09).
[2]王思棋.浅论生成式人工智能的法律风险及规制路径[N].重庆科技报,2024-08-20(002).
[3]王利明.生成式人工智能侵权的法律应对[J].中国应用法学,2023(05).
[4]孙阳.生成式人工智能的侵权标准、价值辨析与规范应对[J].社会科学动态,2024(10).
[5]杨建武,罗飞燕.类ChatGPT生成式人工智能的运行机制、法律风险与规制路径[J].行政与法,2024(04).
 
版权所有:合作经济与科技杂志社 备案号:冀ICP备12020543号
您是本站第 3539508 位访客