专访浙大孙笑侠:“能—智—事适配”或可突破中国AI立法瓶颈
创始人
2026-05-13 20:12:36
0

21世纪经济报道记者柳宁馨 杭州报道

当前,人工智能技术正处于爆发期,但伴随的AI幻觉、伦理边界等问题也引发担忧。

中国人工智能法立法路径的特点是什么,为何仍难出台?如何解决人工智能监管政策和方式设计的痛点?对普通人而言,在AI时代最大的风险是什么,需要优先保护人的哪些权利?

围绕这些问题,在5月9日的人工智能法浙大版学者建议稿圆桌论坛期间,21世纪经济报道记者专访了浙江大学数字法治研究院院长、教授孙笑侠。

孙笑侠认为,中国人工智能立法的基本价值原则就是,既要促进发展,也要保障安全。然而,这也是当前各国立法的难点。为破解这一难题,他提出AI全生命周期“能—智—事适配”理论,即按AI能力、认知水平、场景复杂度开展阶段化准入与分级监管。

在孙笑侠看来,对个人而言,AI最大的风险不是让人类失去劳动权,而是侵入人类的认知权。所以,人工智能法浙大版学者建议稿强调,一定要禁止AI控制人的思想、控制人的情感,特别是禁止对未成年人进行控制。

(浙江大学数字法治研究院院长、教授孙笑侠在采访中,图片来源:浙江大学数字法治研究院)

AI立法要破解发展与安全平衡难点

《21世纪》:现在提出制定人工智能法,处于AI发展怎样的一个阶段?

孙笑侠:今天,我们看人工智能法的立法条件是否已经成熟,要怎么看呢?如果从AI全生命周期,用拟人的生命历程看,AI处于从婴儿到成人的哪个阶段?人类是否已经进入AI时代?需要设定一些标准,例如技术成熟条件、AI跨领域能力、社会化应用等。

这恰恰与人工智能技术发展经历的三个节点相吻合:其一,从AI技术突破标志来看,2012年杰弗里·辛顿与其两位学生‌共同提出了AlexNet;其二,2018年第一个大语言模型GPT-1标志着AI能力跨领域,这开启了人工智能的“婴儿期”;其三,2022年ChatGPT-3.5出现,说明人工智能开始直接影响社会生活和决策过程,这是AI进入日常生活和经济活动的标志。

所以,以2022年为起点,我们无疑已经进入人工智能时代。

如果说自动驾驶人工智能已经达到可以让一辆汽车完全自动驾驶、把你从上海送到杭州来的水平,说明该场景下实现具体任务的机器已经成熟。但在另一些领域和场景,却还没有成熟,比如司法、行政、医疗等等。那么怎么确定这个成熟度呢?人类以18岁为成年的界限,但人工智能显然不能定18岁为成年。

从制定人工智能法的时间看,有的国家和地区早,比如欧盟以及日、韩等地,有的晚,比如中国和美国,可见人工智能立法的早晚与人工智能技术成熟与否没有关系。最近,中央提出要加强人工智能立法的研究,学界在人工智能法的讨论上也逐渐频繁。我认为,人工智能立法时机成熟的标志应该是——国家人工智能战略是否已转化为立法理念,以及实现该理念的制度架构设计是否已经做好准备。

《21世纪》:现在提出人工智能法立法的时机如何?

孙笑侠:亚洲的韩国、日本和新加坡已经有人工智能法,中国还未出台。不是不需要,而是因为快速发展迭代的技术,更因为我国的政策理念是复合性的,因此立法难度较大。要促进发展,还要保障安全,这两个难题横在前面。

现在已经出来一些人工智能地方条例,但学者和理论界还没有提供成熟的人工智能法的理论。学界尚未拿出一个让国家立法机关看得见、摸得着的,能真正解决发展与安全这一对矛盾的理论。

中国的思路是,人工智能既要促进发展,也要保障安全,发展、安全还要普惠,三个价值要统一起来,让大家都享受到技术福祉。要想把这三个价值结合起来,至少把前面两个协调好。

所以我们提出了一个理论,叫AI全生命周期“能—智—事适配”理论,通俗地讲,就是AI成长各阶段的能力、智力和任务均坚持适配原则。欧盟、美国、韩国、日本等还没有提出类似理论,我们把这一原创理论贯彻到人工智能法浙大版学者建议稿当中。

建立AI治理“能—智—事适配”机制

《21世纪》:“能—智—事适配”机制的核心特点是什么?能够解决人工智能监管政策和方式设计的哪些痛点难点?

孙笑侠:“能—智—事”是这三个东西:“能”指AI外在表现出来的行动能力;“智”是指AI的智商,包括推理能力、解释能力、迁移能力(即举一反三的能力)以及自我反省纠错能力;“事”就是具体事情、任务、场景和领域。

人工智能在实际应用中并非通用工具,必须与具体场景深度匹配。例如用来搬运的人工智能,不能直接用到医疗手术台上。一台会自动驾驶的汽车,作为人工智能的一种应用,虽然可以精准判断出现异常就踩刹车,展现出充足的能力,但它的智力不可能捕捉人类所面对的真实世界,理解力还没有完全像人。

以驾驶中遇到空中飘来黑色垃圾袋的突发事件为例,自动驾驶AI可能会采取急刹车的应对方式,而人类司机可以慢慢踩,因为人类能判断这是空中飘来的黑色垃圾袋,他可以从容处置。这一案例直观体现了当前自动驾驶AI的局限性,即它的“能”是很充足的,但它“智”的部分尤其是针对物理世界的真实生活,目前还比较低端,无法像人类一样基于常识和真实世界认知做出更合理的判断。

我所讲的适配,指的是这三者之间的匹配度,用这个匹配度来理解人工智能的本质。有史以来对AI的定义告诉我们,AI本质上其实就是让机器像人一样的行为和思考,行为指的是“能”,思考就是“智”,这两个东西在人工智能那里可以拆开,而且必须要拆开来,才能够用“能”来证明“智”的存在,才能去实证它。

《21世纪》:你认为中国AI立法最核心的特色是什么?

孙笑侠:中国是成文法国家,我们又要统筹兼顾促进发展与保障安全这两个方向,在一部制定法中把二者加以规定,难度比较大,这很可能是我国人工智能法立法的瓶颈,但是一旦难题突破,前景可观。

 《21世纪》:尤其在金融、医疗、司法等高风险领域,应如何划定AI边界?

孙笑侠:过去一些部委关于人工智能,例如自动驾驶的人工智能,已有一些规章制度,总体强调安全比较多,原因在于自动驾驶直接涉及人的生命。虽然我们还没有制定人工智能医疗方面的法律,但相关立法也为期不远。

我刚才举例的自动驾驶和医疗这两个领域有个共同点,即第一位的价值就是生命价值,这两个都涉及生命,必须要保障安全。再看教育和司法,人工智能应用到教育,用AI来从事司法审判辅助工作,这两个领域的共同点在于涉及价值判断,涉及AI让人类大脑受到价值冲击。还有金融,尤其是股票领域的人工智能应用涉及博弈,可能会引发经济大幅波动。

生命健康、价值判断、经济波动这三块,是我们使用人工智能最危险的三个点。所以人工智能法浙大版学者建议稿就把这三块作为特殊领域,这三块要控制好。而在另一些场景,则要鼓励和促进人工智能的应用,比如用AI替代危、繁、脏、重的恶劣环境下的劳动工种。这就符合我们国家提倡的兼顾发展与安全。一方面,严控三块危险领域的AI使用,另一方面,放宽进入门槛,让更多人工智能企业发展起来。

AI时代要保护人类认知权

《21世纪》:你讨论过“数字权利”的概念,对普通人而言,在AI时代面临的最大风险是什么?未来中国AI立法需要优先保护人的哪些权利?

孙笑侠:除了宪法已经规定的一些权利之外,数字权利还包括数字隐私权、数字言论自由、数据权、数字信息权、数字身份权、数字尊严权。

人工智能时代的个人权利实现是十分困难的。例如,作为在线劳动者,可能失去了休息权,老板也希望让你休息,可是你和他都实现不了,因为你陷入了这台数字化“机器”。再比如,现在AI能够把身份信息变成数据画像,当你去银行贷款的时候,AI误把你定义为一个“老赖”,或者不值得信任的人,你自己都不知道。

因此还需要借助于技术刚性嵌入的一些权利,如离线权、删除权以及由黑箱测试权、解释模式访问权等子权利组成的算法防御权。

但是最大的风险在认知权。当前国际学界有学者讨论,人类的认知权很可能要被AI侵入,我赞同这一观点。我们总是担心人类失去劳动权,这些还是次要,认知权没了风险更大。因为AI不断在影响你、支配你,使你产生思维定式、困在信息茧房,你以为自己在思考,实际上是按AI给你的路径在思考,这不是很可怕吗?

人要思想、要自由,不光是去哪里散步、游泳这类行动自由。我们是自由的人,拥有自由的身体,可是思想和认知受到AI影响不自由了,这就是认知权被影响、被侵入。

所以在我们人工智能法浙大版学者建议稿里,强调一定要禁止AI控制人的思想、控制人的情感,特别是禁止对未成年人进行控制。人工智能最大的风险在于,我们不知不觉中被它忽悠,自己还不自知。

《21世纪》:你曾说司法是“人类活动中最具有思想性和挑战性的活动”,那你对技术的立场又是怎样的?你认为未来十年,AI会重塑法律人的哪些能力,而哪些事务是法律人不能交给算法的?

孙笑侠:如何对技术进行定位?我看技术的发展,它是有阶段性的,这是我的基本判断。AI在很多功能上,特别是在“能”的方面已经超过人类,搜索、推理、记忆能力很强,但是在“智”的方面不一定会快速增长,需要通过长期训练逐步提升其智力水平。

所以,把司法这样一个难题交给AI来进行,它目前无法胜任。将来10年左右,它也胜任不了。即便再过20年、30年,甚至50年,即使到时AI的水平能够匹配司法裁判这件“事”,它能匹配也不等于我们人类愿意交给它来完成。

人类不愿意把司法权力交给AI,主要有两个原因。第一是损害到人类的尊严,我们把最重要的事情交给AI,那人类做什么呢?第二个原因,从司法的角度来说,司法是人类的活动当中最有思想性和挑战性的,象征着我们人类所有活动的天花板级要求,因为在法律无明文规定的缝隙中,只有专业的法律人才有能力、有智力和有资格进行权衡性裁量,这是司法功能的一个特色。把最重要的人类活动交给机器,而不是由人来控制,这件事情是不可能放纵的。所以把司法的权力掌握在人类的手里,这是司法尊严的要求,也是人类尊严的要求。

未来10年,法律人的提升在于通过AI收集信息可以支持他判断的全面性,提高准确性,但是也会带来法律人的挑战,有可能会压缩法律人的规模,法官人数、检察官人数可以维持在一个比较小的规模,律师也可以减少一定的数量,让精选出来的人做最难的事。对我们法律人能力的要求就是,你的判断力要更强,包括规范的判断力、事实的判断力和价值的判断力。

换句话说,未来的法律人不仅要解决现有法律问题,更需要具备设计和创造新型法律框架或建构制度的能力,比如AI时代的医疗养老服务框架,它虽然是服务合同,但同时涉及一方的身体权与人格权数据。这一行为场景在我国现行法律上并没有适配对应的制度,需要法律人进行创新,以现行法律中的零部件为基础,构建一种全新的合同框架,这既是一种挑战,也是一种机遇。那些简单、有标准答案的事务可以交给AI处理,而剩下的复杂疑难案件——德沃金所谓的“hard case”(疑案),才是人类擅长、也最有意义的工作。

相关内容

热门资讯

长征五号B遥一运载火箭顺利通过... 2020年1月19日,长征五号B遥一运载火箭顺利通过了航天科技集团有限公司在北京组织的出厂评审。目前...
9所本科高校获教育部批准 6所... 1月19日,教育部官方网站发布了关于批准设置本科高等学校的函件,9所由省级人民政府申报设置的本科高等...
9所本科高校获教育部批准 6所... 1月19日,教育部官方网站发布了关于批准设置本科高等学校的函件,9所由省级人民政府申报设置的本科高等...
湖北省黄冈市人大常委会原党组成... 据湖北省纪委监委消息:经湖北省纪委监委审查调查,黄冈市人大常委会原党组成员、副主任吴美景丧失理想信念...
《大江大河2》剧组暂停拍摄工作... 搜狐娱乐讯 今天下午,《大江大河2》剧组发布公告,称当前防控疫情是重中之重的任务,为了避免剧组工作人...