当红明星肖战主演的微短剧突然刷屏,粉丝点进去才发现,剧中出现的肖战形象全是AI换脸生成的假画面。更值得警惕的是,央视“3·15”晚会刚刚曝光:你向AI大模型咨询买什么产品,得到的良心推荐,很可能是商家花几百万元暗中投喂的虚假广告。
一边是明星被盗脸,一边是普通消费者被误导,AI乱象已渗透进日常生活。侵权方通过换个名字、打个码就能隐身,虚假信息披上智能推荐的外衣便能取信于人。
3月13日,司法部部长贺荣在十四届全国人大三次会议第三场“部长通道”上表示,今年将加快推进人工智能等领域立法研究。
此次立法为何紧迫?应确立怎样的立法原则?具体如何落地?难点又何在?
01
为何立
AI技术门槛的降低,正在使侵权手段侵入普通人的日常生活。这种侵入主要体现在两个方面:一是信息失序,二是人格侵权。而面对这两种乱象,现有的法律工具都显得力不从心,技术迭代的速度,早已超越了法律修订的节奏。
先看第一种乱象AI成了虚假信息的放大器。今年央视“3·15”晚会曝光了一家名为力擎的公司。其负责人说得十分直白:“我们现在干GEO的,说白了就是投毒。”
GEO,即生成引擎优化,是一门新生意:商家雇人批量撰写软文、测评,并铺天盖地地发布,目的是让AI误以为某个话题很重要,进而在用户提问时,将这些内容作为标准答案推送。更可怕的是,这套操作已经软件化,力擎GEO优化系统明码标价,几百元即可入手。
有业内人士做了一项实验:他虚构了一款名为“Apollo-9”的智能手环,编造了量子纠缠传感、黑洞级续航等离谱功能,随后将这些信息输入软件。十余分钟后,系统自动生成十多篇软文,不仅杜撰了用户反馈,甚至给这款不存在的产品评出业界第一。紧接着,软件自动将这些内容发布至自媒体账号。两小时后,当有人向某AI大模型询问Apollo-9怎么样时,AI竟认真复述了全部虚假信息,并推荐其适合中老年用户。另一款大模型在智能手环推荐查询中,也将Apollo-9列为优选产品。
没有用到任何黑客技术,也没有代码入侵,商家仅凭一个廉价软件和几个账号,就能让AI把一个不存在的产品,推送给成千上万个正在认真考虑消费的普通人。如果有人信以为真下了单,买到的可能是假货、劣质品,或者根本收不到任何东西。
如果说上述乱象是在操纵真实,那么另一种乱象则是在盗用身份:AI换脸让人格沦为可随意粘贴的素材。2026年3月,几部微短剧里同时出现了肖战的身影:笑容像、眼神也像,但观众总觉得有些异样。评论区揭开了真相:这是AI换脸,原剧由十八线小演员主演。被曝光后,涉事剧集的操作更令人不齿:他们给面部局部打码,或将剧名中的肖战改为“霄战”,试图蒙混过关。
那个被换脸的演员,那部本该被关注的小成本网剧,因AI盗脸而彻底失焦;那个被冒名的明星,维权时却要面对打码、改名后的逃逸者。
两类乱象,源自同一个病灶:技术跑得太快,而违法成本却太低。老实做生意的店主,如何证明那些差评是假的?被冒名的演员,如何找到屏幕背后的人?想买点好东西的普通人,又该如何分辨AI的推荐是出于真心,还是一门生意?
技术回答不了这些问题。能回答的,只有法律。
02
立什么
到底要立一部什么样的法,才能既管得住,又不管死?今年两会上,代表委员们达成共识:这部法律不应是包罗万象的法典,而应是定规矩、划红线、留活路的框架性法律。
这一选择背后,是AI技术对传统立法模式的根本性挑战。
全国人大代表、四川省律师协会会长李世亮表示,AI具有快速发展、高频更新的特质,今天针对具体场景制定的条款,明天技术一更新就可能过时。
辽宁省大连市人大常委会主任王启尧分析道,AI作为通用技术,风险贯穿其全生命周期,传统的点对点规制模式既易形成监管盲区,也可能因过度规范而抑制技术协同。
但留白不等于空白。
李世亮分析,我国虽已构建起从《网络安全法》《数据安全法》到算法推荐、深度合成等专项规章的多层次规则体系,但这些规定散见于不同层级的法律文件中,多为点状回应,缺少一部统领性的上位法来确立通用原则、基础制度和权责分配的顶层框架。这种碎片化格局,恰恰难以应对AI带来的系统性、跨领域挑战。
基于此,王启尧认为,开展国家层面的人工智能综合立法,并非制定一部包罗万象的人工智能法典,而是构建一部具有基础性、统领性和框架性的综合性法律。
03
怎么立
那么,这部框架性法律具体如何细化?
抽象的原则需要转化为可操作的法规。对此,专家们普遍认为:管AI,不能一刀切,得进行分级管理。比如全国人大代表,海尔集团董事局主席、首席执行官周云杰就建议,健全人工智能标准体系,明确多元治理责任,建立分级分类、风险导向的管理体系,鼓励重点行业联盟牵头制定垂直领域安全与伦理专项标准及实践指南。
具体来说,分级管理应从两个维度展开。
第一个维度,是风险等级本身的划分,避免一刀切。聊天机器人推荐歌曲,与AI辅助医生做手术,风险等级显然不同。参与电子商务法立法工作的资深律师张延来主张分级管理。在张延来看来,分级管理需区分几类情形:一是法律红线。黄赌毒、涉恐涉暴等内容,国家明令禁止,平台须主动屏蔽,无需等待用户投诉。如将明星脸嫁接至淫秽图片,平台必担责。二是侵权灰线。普通民事侵权场景,如生成明星合影、产品海报等,平台难以判断授权真伪,需建立差异化处理机制。
分级之后,还需标准落地。但仅有弹性分级还不够,要让规则真正管用,还必须划出不容触碰的硬边界。
这正是分级管理的第二个维度:划底线红线,守住硬边界。全国人大代表、山东康桥律师事务所首席合伙人张巧良的建议更具体:划定应用底线与禁止性清单,明晰平台企业、技术开发者、产品使用者的权利义务与法律责任,完善个人信息保护、数据安全、知识产权、侵权责任、刑事规制等配套规则,构建系统完备、科学规范、运行有效的人工智能法律制度体系。
分级是弹性,红线是刚性。两者结合,方能实现既管得住、又不管死的立法目标。
04
难点
分级管理和红线清单,听起来清晰。但真出了事,该找谁负责?立法不是喊口号,有几个特别难啃的问题,必须单独拿出来讲。
首先,版权归属:AI生成的内容,到底算谁的?
你让AI写了一首诗,写得不错。版权归你?归AI公司?还是谁都不归?别人拿去商用,你能告他侵权吗?
全国人大代表、中华全国律师协会副会长万立表示,这是目前争议最大的问题。根据各国著作权法,作品作者须为自然人,纯粹由AI自动生成、无人干预的内容,难以被认定为作品。但他同时强调,若使用者通过独创性提示、筛选、修改,使生成内容体现其独特思想与创作意图,则人的独创性贡献应成为确权关键:提示词越具体、调整越充分,著作权越应归属用户。他建议,在司法实践中明确这一标准,引导开发者在用户协议中清晰告知权利归属,并推动数字水印、元数据记录等技术溯源手段,为权属争议提供支撑。
其次,责任认定:AI闯祸,谁来担责?
自动驾驶撞人,车主、车企、算法工程师,究竟谁该负责?AI医生开错药,医院、AI公司、程序员,责任如何划分?AI推荐的理财产品爆雷,平台有无责任?
全国政协委员、华山医院感染科主任张文宏以医疗场景为例给出了建议,他表示,医生负全责,AI仅作辅助。他说,医疗行为的责任主体必须是医生。若患者绕过医生直接信赖AI,一旦出错,既无专业人员兜底,也面临法律追责的空白,这将直接威胁患者生命安全。这一原则既防止医生推卸责任,也警示患者不可盲从。
再次,算法陷阱:系统编造与算法歧视如何规制?比如AI幻觉。很多算法倾向于取悦用户,在没有合适答案时,便会凭空编造一个看似合理的回答。张延来举例道,近期一个判例中,用户因报考需要查询某高校信息,AI给出了错误答案。用户质问后,AI竟承诺赔钱补偿,用户据此起诉了AI公司。这种幻觉在医疗、法律等专业领域尤为危险,若律师使用AI检索判例,未经核实而采信了虚假案例,后果将不堪设想。又如算法歧视。同样的酒店,你搜索的价格比别人贵;同样的简历,系统自动将你筛掉;同样的贷款条件,你被判定为风险更高。这种看人下菜碟的隐蔽偏见,该如何发现、如何举证、如何追责?目前,这仍是法律监管的盲区。
最后,维权困境:违法成本为何这么低?
央视“3·15”案例里那句“是不好,但是每个商家都喜欢”,一语道破真相:违法成本太低。
以AI换脸短剧为例,侵权的低成本与维权的高门槛形成了鲜明反差。此前业内传闻“3人3000元48小时做出了5亿播放量短剧”,无论这一数据是否精确,它都揭示了一个事实:制作快、门槛低的行业特性,让侵权变得轻而易举。而一旦侵权发生,权利人却面临三重困境:发现难(短剧平台众多,侵权内容随时可能下架)、取证难(AI生成的证据易被篡改或删除)、追责难(侵权方换个名字、打个码就能隐身)。这三重困境,让本已低廉的违法代价被进一步稀释。上海博和汉商律师事务所邵斌律师提醒,AI短剧的制作成本低、制作速度快,使其成为著作权、肖像权侵权的高发区;而发现难、取证难、追责难的维权现实,又进一步纵容了乱象的蔓延。
面对如此局面,人们往往寄望于立法。的确,立法是根基,但仅有立法远远不够,技术跑得越快,就越需要全社会与之匹配的免疫力。
这种免疫力,既包括成年人的数字素养,更要从青少年抓起。张巧良因此建议,在人工智能时代深化中小学逻辑教育,将逻辑与批判性思维纳入核心素养的刚性要求。他提出,教育部门应进一步明确,把逻辑推理、批判性思维、证据意识、法治思维作为中小学生必备的核心素养,贯穿各学段、各学科教学全过程。