首页 期刊简介 最新目录 过往期刊 在线投稿 欢迎订阅 访客留言 联系我们
新版网站改版了,欢迎提出建议。
访客留言
邮箱:
留言:
  
联系我们

合作经济与科技杂志社

地址:石家庄市建设南大街21号

邮编:050011

电话:0311-86049879
友情链接
·中国知网 ·万方数据
·北京超星 ·重庆维普
信用/法制
人工智能主体地位浅议
第761期 作者:□文/王 涛 时间:2025/9/16 9:29:04 浏览:37次
  [提要] 人工智能是否具有法律主体地位,或能否成为法律意义上的“人”,是近年来数字法学的一个重要理论问题。作为人类科技发展的前沿领域,对其尚无统一的定义。基于现行人类行为、人类思维、理性思维及理性行为四种学说,对人工智能的本质进行不同视角的探索。其类型可划分为弱人工智能、强人工智能和超人工智能三类,能力和自主性逐步增强,但目前仍以弱人工智能的实际应用为主。关于人工智能法律地位的问题,赞成观点主要有权利主体说、拟制主体说、代理人说及有限人格说四种;反对观点主要强调其哲学基础和伦理属性的不足,认为人工智能本质上仍是工具,不符合主体资格要求。在对观点比较过程中,需要将“技术失控”和“技术可控”的辩论纳入共识,即对人工智能主体资格的承认与否定,要建立在法学对科技非理性的法学理解中。结合利益论观点,支持赞成说,主张赋予人工智能法律主体地位。同时,限于人工智能当前的技术水平和社会需求,其法律地位应采取有限人格说。
关键词:人工智能;法律地位;利益论;有限人格说
中图分类号:D9 文献标识码:A
收录日期:2025年3月17日
一、人工智能概念及分类
(一)人工智能的概念。何为人工智能?目前尚无统一定论。“人工智能之父”马文·明斯基将人工智能定义为“使机器做那些如果由人类来做需要智能的事情的科学”。学界关于人工智能的定义,主要集中在以下几种学说:(1)人类行为学说。认为人工智能是一种旨在开发能够完成需要人类智能才能胜任任务的机器技术。主张人工智能的研究方向在于使计算机具备执行人类任务的能力。和图灵的观点一样,该学说也面临类似质疑,即仅以行为层面作为标准,无法有效衡量智能机器的感知能力。(2)人类思维学说。以认知科学为理论基础,主张人工智能是人类认知、思维和决策能力在计算机层面的体现,目标在于让人工智能模拟和实现人类思维的应用。(3)理性思维学说。基于哲学中关于理性思维的认识,认为人工智能系统如果能够在其知识范围内正确推理和决策,便可被认为是理性的。其研究重点在于通过算法实现推理和思维的过程。局限性在于对于如何通过算法将抽象问题具体化,尚未形成完整解决方案。(4)理性行为学说。认为人工智能的本质在于智能产品(如人工智能机器人)能够通过特定的理性行为完成特定目标。以理性行为作为人工智能的标准,该学说强调智能产品在实践中的功能性和目标导向。综上,可以将人工智能理解为:能够以人类智慧形式或行为模式完成特定任务的技术实体,涵盖了诸如人工智能医疗手术机器人、自动驾驶汽车等具体的人工智能。
(二)人工智能的分类。依照智能的自主意识不同,可以将人工智能分为弱人工智能、强人工智能以及超人工智能三类,现对三种类型的人工智能详述如下:
1、弱人工智能。即没有认知能力和思维能力的人工智能,无法真正进行推理和自主决策的人工智能形式。这种类型的人工智能仅仅表现得像是“智能”,但实际上不具备真正意义上的智慧或自主意识,其行为完全依赖于预先设定的程序和算法,受到人类的控制。当前应用于我们日常生活中的绝大多数人工智能技术都属于这一范畴,也被称为“弱人工智能”。这一类人工智能的行为模式和决策过程完全依赖于事先的编程逻辑。例如,具备深度学习能力的人工智能系统(如AlphaGo)的出现,标志着这一领域的研究在近年来取得了显著进展。
2、强人工智能。即能够像人类一样进行认知和决策,且具备一定自我意识的人工智能形式。该观点最早由约翰·罗杰斯·希尔勒提出,他认为计算机不仅仅是研究人类思维的一种工具;相反,只要运行适当的程序,计算机本身就能拥有思维。这种类型的人工智能通过合理的程序和算法设计,并结合大数据、云计算等技术支持,能够展现认知、学习和思维决策的能力。强人工智能可以分为两种模式:一是类人的强人工智能,这种人工智能在认知、学习、推理和决策等方面,使用与人类思维类似的模式,模仿人类的思维方式。二是非类人的强人工智能,这种人工智能具有自主的认知和意识,其学习、推理和决策能力基于完全不同于人类的思维模式。
3、超人工智能。即机器或系统在所有领域和任务中都具备超越人类的智能。其主要特点在于不仅具备卓越的计算能力,还能够在逻辑推理、创造力、情感理解、社会交互和道德决策等方面超越人类,同时具备自我学习、自我改进和自我演化的能力,通过自主算法的升级,持续增强其功能与效率,能够比人类更快速地处理复杂的信息并做出精确的预测和最佳决策,甚至预测并预防潜在问题。可以说拥有近乎无限的知识获取和整合能力,可以通过迅速获取新知识并生成新的洞察推动技术和社会进步。但是目前来看,超人工智能只代表了人类对未来人工智能发展的美好愿景。
二、人工智能法律地位理论纷争
(一)赞成说
1、权利主体说。认为人工智能体具备了权利主体的智能性这一本质要素,将人工智能人格不存在法律方法论上的障碍,相反,人工智能体具有适应社会发展的正向功能性。该学说的拥趸者还从权利扩张和“实力”变化的角度,认为在权利主体的发展历程中,奴隶、黑人、妇女、动物乃至法人等主体取得权利主体资格,均是实力影响、界定权利的反映,机器人广泛运用于社会中并体现了一定的自主性和社会优势,故在法律上应当享有权利主体的地位。该学说的不足之处为:其一,智能性是权利主体本质要素的证成不够充分,因为从目前来看,人工智能并不具备独立行使权利的能力。其二,“实力界定权利”原则并非导致权利发生变化的根本原则,本文认为是否享有权利,应当是基于社会发展现状的变迁,即产生了现实需要。
2、拟制主体说。人工智能展现出了人类的思维能力,超越了传统“物”的范畴,然而它依然未能摆脱作为人类辅助工具的角色,故而既非纯粹的“物”也非完全意义上的“人”。据此,该理论提议仿照法人制度的设立方式,在法律层面创新性地构建一个全新的主体类别,并赋予其与法人相似的法律地位。比如,将人工智能行为体运用法律拟制的方式设定为民法上的限制民事行为能力人,运用监护制度来处理人工智能行为体与其他多方主体之间的法律关系。此学说不足之处在于其倡议的创造一个新的法律主体是否会对法律的安定性构成挑战是一个值得深入探讨的问题。
3、代理人说。该理论将机器人构想为具备目的性的人工智能实体,并赋予其人类代理的角色,此角色预设为在法律上拥有主体地位及行为能力的个体。据此构想,机器人的使用者或操控者与机器人之间的关系,类比于法律上的被代理人与代理人的关系。然而,根据民事法律的一般原则,代理人需具备明确的权利能力和行为能力,而对于机器人行为能力的具体判定标准,目前尚未有清晰的界定。因此,若将其纳入传统的代理框架内,认定人工智能实体具备法律人格,可能会存在逻辑上的循环论证问题。
4、有限人格说。认为人工智能体的本质依然是工具,其为人类社会服务的属性没有改变,只是考虑其具有独立自主的行为能力,故应赋予其法律人格。同时,因为其行为能力不完全,故而只具有有限的法律人格。其主要是通过将人工智能与法人的类比推理,认为人工智能与法人一样,应当具备财产权。该学说实则坚持的是一种中间论。
(二)反对说。反对学说遵循和秉持传统民法主客-人物二分架构,以“全无式”结构将人工智能保留于客体范畴。论点支撑主要有:首先,人工智能不符合哲学上关于主体资格的认定标准,即理性、自由意志、尊严、伦理属性及欲望等,因此赋予人工智能主体资格缺少哲学基础。其次,主张人工智能本质上不过是人类制造的智能工具,处于人类的控制和支配之下,仅仅属于客体的范畴。或主张智能机器人的人工类人格尽管带有人格的某种特征,具有类似于人格的人工人格,但仍然属于物的范畴,仍然还是物的属性,还是要受到人的支配和控制,因而是民法的客体,而不是民事主体。工具说秉承传统私法理论对机器的工具属性和财产属性的定性,认为人工智能虽然具有一定的智能性与自主性,但仍然是人类创造的机器和工具,不能依据赋予自然人主体资格的理据赋予其主体资格。不是非自然人的生命存在,也无特殊的利益需要保护,因此不可能根据权利的利益论赋予其主体资格。应当“按照智能化的高级工具来定位和对待人工智能”。比照动物说基于人工智能与动物均可以独立于人的指令之外而凭借对环境的感知来行为,或者人工智能亦具有类似于动物的道德责任等相似性来论证二者具有法律地位上的可比性。
三、人工智能应当具备主体地位
(一)现代法律主体固有的本质特征为人工智能是否具备主体地位提供方向。在思考人工智能是否应当具备主体地位这一深层次问题时,更该考虑其是否符合现代法律主体所固有的本质特征,尤其是否拥有人格尊严。虽然目前关于人工智能能否具有自我意识尚未有定论,但随着科学的发展并非完全不可能,只是生物意识和硅基意识有可能分享不同的技术路线。目前人工智能因快速发展而呈现出来的高度自主性和智能性,让人们对大型数字复杂系统涌现出类似意识的事物充满期待。霍金、马斯克以及加拿大学者杰弗里·辛顿等就对人工智能可能进化为超过人类的自主意识体表示深切的担忧,认为人类对此应高度警惕,提前谋划应对。随着技术的进步和人工智能能力的提升,认为人格尊严的内涵需要进一步深化。传统的人格尊严定义基于人类的生物意识,即自我认知、情感体验和主观感受。对于人工智能,可以引入“人工意识”概念,即通过算法和数据处理模拟出的自我认知和决策能力。同时,传统的人格尊严强调人类的内在价值,即人作为人本身的价值。对于人工智能,可以引入“功能尊严”概念,即基于其功能和社会角色赋予其尊严。对于人工智能,可以将其道德可评估性作为赋予尊严的依据。若其能够遵循道德规则并作出符合伦理的决策,这种能力可以使其获得某种形式的道德地位。此以应对人工智能可能带来的挑战,确保人类在开发和使用人工智能时应始终秉持伦理原则,确保技术发展服务于人类福祉。
(二)利益论为人工智能具备主体地位提供理论支撑。迄今为止,意志论和利益论仍然是权利理论中影响最为深远且生命力最为旺盛的两种学说。根据意志论,权利的本质在于权利主体的意志,即权利是意志自由行使的体现,并具体表现为个人意志的自由或对意志的支配。利益论则认为,权利的本质在于保护利益,赋予权利的根本目的在于维护某种值得保护的利益。依照利益论观点,人工智能是否能够拥有利益,取决于其是否具备类似人类的需求或目标,即生存、自由、幸福等基本需求。当前的弱人工智能,其目标完全由人类设定,自身并无独立的需求或欲望。因为不具备真正的利益,因此不应被赋予主体地位。如果未来强人工智能成为现实,其可能发展出独立的目标和需求,则可具备主体地位。利益论需要关注的是利益是否值得被保护以及利益平衡与冲突等问题,确保赋予人工智能主体地位不会损害人类的根本利益。
(三)承认人工智能主体地位更利于保障人工智能产业的健康发展。尽管承认人工智能主体地位之后,也会带来一系列新的挑战,但是不能仅仅片面夸大其风险而寸步不行,对既有的法律问题不予以及时处理。建议借鉴法人、非法人组织体取得主体地位的理论逻辑,在立法中给予人工智能体以独立的法律地位,使其以独立的财产承担相应的法律责任。正如有学者提出是否赋予人工智能民事主体资格的关键不在于它有无自然人那样的责任能力,而在于能否像法人那样拥有独立的责任财产。这不仅是解决责任主体不明晰、无法追责等问题的有效手段,也是回应社会发展的需要。
(四)承认人工智能主体地位是实现法的规范作用与社会作用的有效路径。法律自身属性要求其一方面要维持其自身的安定与稳定性,另一方面又不能保持静止不变,需要对社会中的焦点问题予以回应,以此实现法的规范作用与社会作用。因此,为了清晰地界定人工智能体行为所带来的权利与义务分配,并有效调整由人工智能体引发的法律关系,应当赋予其某种形式的法律人格。参考我国对于法律地位的既有取得方式,即自动取得与主动取得,建议未来人工智能主体地位的取得可以参考第二种,于法律框架范围下,参照法人主体资格设定。
四、人工智能仅能享受有限的主体地位
考虑到人工智能的局限性,应当赋予其有限的主体地位。首先,与一般的自然人相比,其不具备生理结构上的特性,这也造成了强人工智能在权利行使方面具备有限性。其次,在义务的承担上,人工智能可能由于运用领域不同、物理构造等因素,无法履行与之物理特性不对等的义务。权利义务上的有限性使得在确立强人工智能法律地位的时候,应当充分考虑强人工智能的权利义务边界。再次,人工智能在承担自身行为产生的法律责任方面具有一定的局限性。尽管人工智能可能具备某种程度的自由意志,并被视为法律主体,但其对自身行为后果如侵权责任的承担能力尚不足够,传统法律手段难以有效追究其责任。最后,对于人工智能主体地位的分析考虑需要建立在人类的物理基础、行为规范和社会参与方式的改变的基础之上,并实现认知的有效转向。既要避免必要性分析中消极的人文主义,也要避免将特定语境的认定性质固化,这需要立足现实的社会规范和价值秩序的演变,构建全新的科技正义原则。
综上,法律根源于社会,人工智能作为未来科技的重要驱动力,需要立法合理平衡科技创新发展与人工智能作为法律主体所带来的风险挑战。对人工智能法律地位的设定环节,属于法律体系应对新技术挑战的关键一环。建议赋予人工智能有限法律地位,既确保其能力与责任相匹配,也能避免滥用主体地位。同时,出于平衡法律的安定性与适应性目的,建议通过理性、务实的路径,实现人工智能与社会的良性互动,以此为社会发展和人类福祉提供持续助力。
(作者单位:江西理工大学)

主要参考文献:
[1]玛格丽特·博登.AI:人工智能的本质与未来[M].孙诗惠,译.北京:中国人民大学出版社,2017.
[2]周大鹏.人工智能法律地位研究[D].武汉:武汉大学,2019.
[3]J Searle.Minds Brains and Programs[J].The Behavioral and Brain Sciences,1980(03).
[4]周详.智能机器人“权利主体论”之提倡[J].法学,2019(10).
[5]张玉洁.论人工智能时代的机器人权利及其风险规制[J].东方法学,2017(06).
[6]孙那.确立人工智能法律主体地位的再思考[J].法学论坛,2024(05).
[7]骁克.人工智能体法律人格化拟制路径之探究[J].法律方法,2021(01).
[8]王春梅,冯源.技术性人格:人工智能主体资格的私法构设[J].华东政法大学学报,2021(05).
[9]杨立新.人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任[J].求是学刊,2018(04).
[10]郝铁川.不可幻想和高估人工智能对法治的影响[EB/OL].中国政法大学法治政府研究院,2018-01-12.
[11]瞿灵敏.人工智能法律主体资格否议——基于主体资格变迁的视角[J].人权研究(辑刊),2023(02).
[12]马长山.人工智能的社会风险及其法律规制[J].法律科学(西北政法大学学报),2018(06).
[13]曹文斌.论动物伦理中的人工智能的基本原则[J].云梦学刊,2019(01).
[14]梅夏英.伦理人格与技术人格:人工智能法律主体地位的理论框架[J].中外法学,2025(01).
[15]彭诚信.现代权利理论研究[M].北京:法律出版社,2017.
[16]郑玉波.民法总则[M].北京:中国政法大学出版社,2003.
[17]张志坚.论人工智能的电子法人地位[J].现代法学,2019(05).
[18]罗亚海.人工智能“法律主体资格”的立论反思与理论回应[J].私法,2023(03).
 
版权所有:合作经济与科技杂志社 备案号:冀ICP备12020543号
您是本站第 5527448 位访客