人工智能是否需要独立的法律人格是一个备受争议的话题。从一方面看,赋予人工智能独立法律人格有助于明确其权利和义务,在诸如侵权责任等方面能更清晰地界定责任主体,保障各方权益。例如在自动驾驶汽车引发的事故中,若人工智能有独立法律人格,其责任承担将更具确定性。
然而,从另一方面考虑,目前人工智能仍依赖人类编程和设定,其行为本质上是人类意志的体现。过度强调其独立法律人格可能会引发一系列法律和伦理问题,如人工智能是否能享有人类的某些基本权利等。
总之,人工智能是否需要独立的法律人格需要在平衡各方利益和考虑技术发展现状的基础上进行深入探讨和谨慎决策。
法律人格是任何法律体系的基础。谁可以作出法律行为,谁可以成为权利和义务的主体,这些问题几乎是其他所有问题的前提条件。然而,对这些基础的仔细审查揭示了令人惊讶的不确定性和分歧。
尽管如此,正如约翰·杜威(John Dewey)在1926年指出的那样,“法院和立法者在涉及人格性质的特殊问题的裁决时,没有达成一致的意见,有时甚至没有任何概念或理论”,也会继续进行他们的工作。他接着说,的确,求助于理论“不止一次地妨碍了对特定权利或义务问题的裁决,而不是促进了这些问题的解决”。
在实践中,绝大多数法律体系承认两种形式的法律人:自然人和法人。自然人因为是人类的基本事实而被承认。相比之下,法人是非人类实体,由法律赋予其某些权利和义务。公司和其他形式的商业组织是最常见的法人,但法人还有许多其他可能的形式,如宗教、政府和政府间实体也可以在国家和国际层面作为法人行事。
值得注意的是,这些都是人类行为的集合体,尽管有一些例子表明,确实存在被授予法人人格的非人类实体。除了在前言中提到的例子之外,还包括印度的寺庙、新西兰的一条河流以及厄瓜多尔的整个生态系统。毫无疑问,一个国家可以为人工智能系统这样的新实体赋予某种法人人格;如果发生这种情况,其他国家也可能给予承认。
法律人格理论
正如前面讨论过的那样,学者和法律改革机构已经提议赋予人工智能系统某种法律人格,以帮助解决法律责任问题,如在自动驾驶汽车的案例中,自动驾驶系统实体的行为可能不受“驾驶员”的控制,制造商或所有者也无法预测其行为。少数学者进一步认为,需要制定程序来审判机器人罪犯,并为通过重新编程或在极端情况下进行销毁的“惩罚”做好准备。
这些论点表明了对于法人人格的工具主义方法,但学者对最常见的法人主体——公司的地位提供了不同的解释,这有助于回答是否应将该地位扩展至人工智能系统的问题。
集合论,有时也被称为“契约论”或“象征论”,认为公司是一种法律创设的工具,可使自然人将自己组织成一个团体,并在与其他方的法律关系中体现这种组织。团体成员可以与其他方建立限制责任等方面的单独合同关系,而公司形式使他们能够以较低的成本集体实现这一目标。这一理论受到诸多批评,它对人工智能系统的适用性最低。
虚构论和特许论对公司法人人格的解释有着不同的起源,但归根结底是相同的:公司之所以具有法人人格,是因为法律体系选择赋予它们这种身份。正如美国最高法院在1819年指出的,公司是“一个人造的、无形的、抽象的存在,仅在法律上存在”。
法人人格是为了实现政策目标(如鼓励创业),或是为法律体系的连贯性和稳定性做贡献(如通过某些实体的永久性)。在通过特许或立法明确授予法人人格时,目的性方面曾经更为明显;在20世纪,这只是形式化的。这些实证主义的解释与立法和司法实践中承认法人人格的做法最为一致,可以包括将其扩展至人工智能系统。
相反,现实主义理论认为,公司既不是虚构的,也不仅仅是象征性的,而是在法律体系赋予法人人格之前就客观存在的实体。尽管它们拥有成员,但它们独立行事,其行为可能不可归因于这些成员。在极端的情况下,有人认为公司不仅是法律上的人,还是道义上的人。
这一理论更受理论家和社会学家的青睐,而立法者和法官则不然,但它呼应了本章引言中强调的紧张关系:法律人格不仅是被赋予的,而且是应得的。然而,在实践中,作为法律主体的实际承认仍然取决于国家的赋予。
结论是,杜威一个世纪前的观点是正确的:“‘人’的含义取决于法律的规定。”然而,尽管是否具有法律人格是二元选择问题,但法律人格的具体内涵却是丰富多彩的。我们暂且将人工智能系统应该在法理上被赋予法律人格的问题搁置起来,如果立法者最后决定赋予人工智能系统特定的法律人格,那就也应该认可人工智能需要承担法定义务,享受法定权利。
法律人格的内容
法律人格随之带来权利和义务,但在一个法律制度内的所有人不一定都有相同的权利和义务。即使在自然人中,争取妇女、少数族裔和其他弱势群体平等权利的斗争也反映了这一事实。例如,可以只授予权利而不承担义务。
这种赋予自然法人法律地位的方法在理论上是可能的,当它首次于1972年被提倡时就是如此,在实践中也是如此,如厄瓜多尔《宪法》。这种“人格”可以说只是为了避免立场问题的手段:使人类个体能够代表非人类权利持有者行事,而不是要求它以自己的身份建立立场。无论如何,这与考虑人工智能系统的人格地位的原因并不相符。
另一方面,人工智能法律人格可能只伴随义务。表面上看,这似乎很有吸引力,但只要这些义务旨在解决前几章描述的问责空白,就会引发一些明显的问题。例如,民事责任通常导致损害赔偿,而这只有在侵权者拥有财产的情况下才能支付。这些支付可能来自一个中央基金,尽管这更类似于本书第4章讨论的强制保险制度。“人格”将仅仅是形式。
对公司而言,法人资格意味着具有起诉和被起诉、签订合同、承担债务、拥有财产以及被定罪的能力。在权利方面,公司是否享有与自然人相当的宪法保护程度是一个持续争论的问题。尽管美国已经给予公司实体许多保护,但在免于自我归罪等方面,仍然有所限制。总的来说,法人享有的权利要少于自然人。(在国际法中,国家享有完全的法人资格,而国际组织可能具有不同程度的法人资格。)
(a)私法
对于人工智能系统来说,具有法人资格的主要吸引力之一是可以被起诉,正如欧洲议会所承认的。当然,这假设了存在可以而且应该填补的有实质性的问责制度空白。到目前为止,本书大部分内容都认为这些空白往往被夸大了。对于这种补救方法的另一个担忧是,即使它确实起到了填补空白的作用,赋予人工智能系统法人资格也会将现行法律下的责任从现有法人转移出去。
实际上,这将激发将风险转移给“电子法人”,以保护自然法人和传统法人免受风险的动机。公司也存在这个问题,它们可以保护投资者免受超出其投资固定金额的责任—事实上,这通常是采用公司制度的首要目的。重新分配风险的合理性在于它鼓励投资和创业。
典型的保障措施包括要求有限责任实体的名称包含其性质(如有限公司,Ltd.;有限责任公司,LLC),以及可能穿透公司面纱以防止滥用法人形式。在人工智能系统的情况下,也可以制定类似的揭示面纱机制尽管如果一个人操纵人工智能系统以保护自己免担责任,这种能力可能表明相关的人工智能系统不值得拥有独立的法人身份。合同订立有时被认为是授予人工智能系统法人资格的原因之一。
然而,利用电子代理达成具有约束力的协议并非新鲜事物。在第1章所讨论的高频交易现象中,算法代表传统主体与其他算法达成协议。尽管人工智能系统的自主性可能挑战现有学说的适用性—特别是在出现问题(如错误)的情况下,但第2章已经阐明,这仍然可以在不诉诸新的法律主体的情况下解决。
承担债务和拥有财产是可以被起诉和订立合同的必要条件。人工智能系统积累财富的可能性引发了关于它们是否该或如何被征税的问题。有人提议对机器人征税,作为解决因自动化而导致的税基减少和工人失业的一种手段。
比尔·盖茨等人认为,机器人(或拥有它们的公司)应当纳税。行业代表们认为,这将对竞争力产生负面影响,因此到目前为止还没有实施。另一种方法是不着眼于机器,而是关注滥用市场地位的公司,可能的方法包括更积极地对利润进行征税或要求分散股份所有权。无论如何,对人工智能系统的征税就像赋予其承担债务和拥有财产的能力一样,是授予其法人资格的附随而非理由。
除了拥有财产外,人工智能系统还可能被要求管理财产。例如,2014年,中国香港的一家风险投资公司宣布任命一款名为“维塔尔”(Vital)的计算机程序为其董事会成员。与沙特阿拉伯授予类人机器人索菲亚公民身份一样,这更多是一种形式而非实质。
根据中国香港法律,该程序并未被任命负责任何职位;在几年后的一次采访中,该公司的管理合伙人承认,公司只是将维塔尔视为具有观察员身份的董事会成员。在大多数公司法制度下,人类董事可以将部分责任委托给人工智能系统,但他们不会被免除对组织的最终管理责任。大多数法域要求这些董事是自然人,尽管在某些法域,法人(通常是另一家公司)可以在董事会任职。
肖恩·拜恩(Shawn Bayern)进一步指出,美国商业实体法中的漏洞可以用来创建没有任何人类成员的有限责任公司。这需要对该法进行有些曲折的解释—自然人创建公司,将人工智能系统添加为成员,然后辞职—但这表明了未来可能对法律人格进行调整的方式。
(b)刑法
法律人格的最后一个特质是最直观且值得详细阐述的:接受惩罚的能力。
如果赋予人工智能系统与公司相当的法律人格,也就没有必要再去争论它是否可以根据刑法被起诉。只要确立了犯罪的客观和主观要件,就可以对这样的实体处以罚款或没收其财产;暂停或撤销相关经营许可。在一些法域,可以对法人下达清算令;如果无法对其进行资格清算,足以使实体破产的巨额罚款可能产生相同的效果。在极端情况下,甚至可以想象一个“机器人罪犯”被物理性销毁。但这是否可取,是否有效?
刑罚的最常见原因包括惩戒、剥夺犯罪能力、威慑和矫正。惩戒是最古老的刑罚原因,将受害者的复仇欲望转化为向社会展示错误行为必然导致后果的行动。对这些后果的校准在“以眼还眼,以牙还牙”的法则中体现得最为直接。正如本书第4章所述的法莱兹母猪被审判、绞死以恢复社区秩序一样,对公司法人或者电子“人”处以相应的罚款带来的示范效应,可能比犯罪行为未受惩罚更可取。
刑罚制度还可以用来剥夺犯罪分子的作案能力,从物理上阻止他们再次犯罪。这可以通过不同形式的监禁来实现,但也可能包括流放、截肢、阉割和执行死刑。对于公司,这可能包括撤销营业执照或强制清算令。在这里,可以直接类比对待危险动物和机械的做法,尽管采取如安乐死恶犬或报废有缺陷的车辆等措施属于行政处罚而非刑事惩罚,且不依赖于“有罪”的裁定。
在某些法域,儿童和精神病患者可能被认为无法犯罪,但如果被判定对自己或社区构成危险,他们仍可能被国家强制机关拘留。这些个体不会失去他们的法律人格;在人工智能系统的情况下,不需要赋予它们法律人格,就可以对其实施类似于限制行动的措施,如召回产品或撤销许可。
威慑是近现代的刑罚理由,它以犯罪者的理性为理论预设通过设定惩罚措施,以威慑对行为施加成本,旨在使这一成本超过任何潜在利益。将犯罪行为归结为经济分析的能力似乎特别适用于公司和人工智能系统。然而,对公司法人而言,激励措施实际上是针对可能通过公司谋取个人和公司利益的人类管理者。就人工智能系统而言,只有当其编程寻求经济利益最大化,而不考虑潜在的刑法本身时,罚款的威慑效应才会影响行为。
最后一种刑罚的理由是矫正。与剥夺犯罪能力和威慑一样,它具有前瞻性,旨在降低重新犯罪率。然而,与剥夺犯罪能力不同的是,它旨在影响是否犯罪的决定,而非犯罪能力本身;与威慑不同的是,这种影响力旨在从内在而非外在发挥作用。对于自然人犯罪而言,矫正在理论上比在实践中得到了更多的认可;在美国,矫正在20世纪70年代失宠。
然而,在公司方面,影响较为明确的杠杆作用导致试验性地采用狭义的惩罚措施,旨在鼓励良好行为,同时也阻止不良行为。这种方法似乎非常适合人工智能系统,因为人工智能系统违反刑法的行为可被视为需要调试的错误,而非应受惩罚的罪行。实际上,关于这一主题的论著已经直接将矫正的教育方面类比为机器学习。然而,要确保机器学习产生不违反刑法的输出结果,无须赋予其法律人格地位,也无须动用国家的强制力。
“无可诅咒之灵魂,无可踢之躯体”
有趣的是,关于公司法律人格的争论主要集中在与人相异的问题上。这一点被第一任瑟洛男爵(First Baron Thurlow)形象地描述为“无可诅咒之灵魂,无可踢之躯体”。尽管没有灵魂,但公司法人资格并未受到阻碍,也没有原则上的障碍阻止人工智能系统被类似地对待。
然而,公司法人资格不同于人工智能法人资格,因为公司是由人组成的,通过人类来运作,而人工智能系统是由人类创造的。因此,工具主义原因可能证明将法人资格授予人工智能系统是合理的,但这并不是必需的。特别是,工具主义隐含的人工智能系统拟人论回避了其他问题。例如,当某个人工智能系统具有多种功能或者是分布式系统时,界定其法律人格的内容将极其困难。
法律上或许可以创建类似于公司的独立法人主体—每辆自动驾驶汽车、智能医疗设备、简历筛选算法等都可以拥有独立的法律人格。如果真的存在责任空白,那么这种法律形式可能填补它们。然而,这种安排的主要受益者将是生产商和用户,他们将因此免于现行法律下的部分或全部责任。而更好的方法是,在最开始就防止这些空白出现。
《我们,机器人?——人工智能监管及其法律局限》,陈西文 著
游传满、费秀艳 译,北京大学出版社
本文来自微信公众号:大湾区评论 (ID:GBA_Review),作者:陈西文(Simon Chesterman),译者:游传满、费秀艳,校对:詹蕴第,初审:杨芸淞,终审:冯箫凝