浩江娱乐网 浩江娱乐网

当前位置: 首页 » 娱乐先锋 »

当“李逵”遇上“AI李鬼”

同一时间,同一个人,身着不同服装,“现身”不同的直播间推广产品,动作神态与本人高度相似。这是媒体11月上旬报道演员温峥嵘遭遇“AI盗播”的场景。“如果你是温峥嵘,那我是谁?”她前去质问,却被直播账号拉黑。这个案例让公众意识到:人工智能也可能成为造假的“放大器”。

事实上,这并非孤例。不久前,央视主持人李梓萌的AI形象被用于开展与事实不符的营销宣传,北京市场监管部门就此开出了全国首张“AI虚假广告案”罚单。这起“首案”的意义,不在于罚款数字,而在于揭开了一个快速扩张的灰色地带——创新与滥用之间的界线,需要被重新划定。

从“李逵打李鬼”到“眼见不为实”,AI在释放巨大创新红利的同时,也让“信任”这一社会基石遭遇前所未有的考验。法律、监管与平台规则,都必须回答同一个问题:当“真伪”界限被算法模糊,如何为真实负责?

本期议事厅,新华每日电讯智库研究与传播中心邀请来自法学界与平台方的嘉宾,共同探讨“AI换脸广告”的法律边界与治理逻辑,试图在多方视角的交锋中,寻找创新与规制、效率与安全之间的平衡之道。

【本期嘉宾】

张凌寒 中国政法大学数据法治研究院教授

赵精武 北京航空航天大学法学院副教授

李 旻 上海汉盛律师事务所高级合伙人  

卢宁宁 化名,短视频平台员工

【主持人】

薛 园 新华每日电讯记者

强制标识为何难阻“AI李鬼”?

主持人:这次AI盗播事件,公众最大的困惑是:国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布的《人工智能生成合成内容标识办法》9月1日起即实施,明确要求AI生成内容必须“亮明身份”。但在现实中,“AI李鬼”的现象为何仍时有出现?

赵精武:强制标识制度确实被寄予了很高的期望,但它并不是“万能钥匙”。它只是AI治理体系中的一个环节。大部分国内合规的AI服务商其实都在执行标识要求,真正的问题在于那些“绕路者”——他们利用境外生成工具,或在私下自行搭建系统生成内容,从而逃避平台监管,不受标识机制约束。

所以,标识制度在本质上解决的是“可识别的合规源头”,却难以挡住“不可追踪的灰色源头”。如果没有全链条的治理,仅靠显式或隐式标识,很难真正构筑信任屏障。

主持人:赵教授点出了标识制度的“规避”难题。李律师,您长期处理一线案件,从法律执行角度看,标识制度落地难,是否还有其他原因?

李旻:原因主要有三个方面。首先是AI技术的特性让监管和溯源难度指数级上升。不法商家花几十块钱、几分钟就能生成“名人带货”视频,再用多个账号在不同平台反复发布。它不仅传播快,还能通过镜像翻转、画中画遮挡等方式,规避标识要求。

第二是平台自身监管的技术和机制存在局限。AI仿冒的形式每天都在变化。现在大多数平台都是事后处理——等用户投诉、等算法匹配,再下架内容。这个速度远远追不上AI造假的速度。

最后一个,也是目前最棘手的:维权成本太高,违法成本太低。被仿冒的知名人士要请律师、公证、鉴定,维权周期长、花费高,而判赔金额往往不够支付成本。侵权者换个号就能“满血复活”,这对违法者几乎没有威慑力。

主持人:技术规避、平台滞后、维权成本高。卢宁宁女士,从平台方来看,是否真的像外界认知的那样“被动”和“滞后”?

卢宁宁:这不仅是技术挑战,更是信任危机。滥用AI技术能力恶意博取流量以及营销牟利行为,一直是我们平台抵制的不良之风。

平台持续强化显性与隐性AI水印的识别检测体系,研发人脸深度伪造识别模型,并对仿冒类作品进行聚类分析与算法封堵。今年以来,我所在的平台已累计清理涉滥用AI技术的仿冒名人视频十万余条,处置违规账号1400多个。我们清楚,AI的挑战必须用AI去应对。平台治理的目标不只是“封掉”违规视频,而是让技术防线比造假速度更快一步。

“避风港”还是“红旗”:平台责任的边界

主持人:刚才我们提到,AI仿冒带来的问题,已经从“能不能发现”走向“该谁负责”。仅一家平台就拦截了十万余条违规视频,这个数字不小,但公众依然感到——AI造假似乎“野火烧不尽”。这背后的争议非常现实:平台到底只需要秉持“避风港原则”在接到举报后下架内容,完成事后补救,还是坚持“红旗原则”,即在风险出现之前,就利用技术提前识别、提前阻断?两种角色,对平台的责任划线完全不同,也直接影响治理效果。

李旻:“通知—删除”机制是法律规定的最低标准,它的核心逻辑是被动响应。但随着AI识别和溯源技术的成熟,“技术不能”的理由越来越难成立。

如果平台在技术上已经能够识别、筛查,却没有采取必要手段,就可能被认定为未尽到“合理注意义务”。尤其是当平台不仅仅是存储空间,而是参与算法推荐、内容分发的时候,它必须承担更多义务。

在我看来,平台的责任不应只停留在“等别人提醒”,而是要前置管理、主动防范——从被动的“避风港”走向积极的“安全舵手”。

主持人:我们注意到,在实践中判断侵权并不总是非黑即白。比如,如果AI生成的不是温峥嵘本人,而是一个她的“酷似者”,平台又该如何界定?

李旻:这个问题确实很现实。我的观点是——只要具备“可识别性”,就可能构成侵权。

民法典判断肖像权的关键不在于是否“复刻”了本人,而在于能否指向某个特定自然人。所谓“可识别性”,不仅包括五官相似,还包括声纹、体态、妆造、场景风格等综合特征。只要这些特征组合在一起,能让公众误以为是某个人,那就已经跨过了侵权的红线。换句话说,不是“长得像”才算,而是让人“以为你是”,就算。

主持人:李律师强调了“前置义务”。赵教授长期研究数字治理,请问这一问题能否从技术上根治?

赵精武:数字水印是把“真相写进比特流”的可行路径。问题是,有些平台总以“技术难、成本高”为由拖延落实,这和早年一些网络平台面对违法信息审核时的态度如出一辙。从法律角度看,标识办法已明确平台的标识义务。未来,监管完全可以通过立法或行业标准,强制关键平台在生成环节嵌入可追溯标识。

张凌寒:我同意。内容生成环节的“可追溯”是关键。在高风险场景,必须以强制性标准明确“应当做到”的底线。治理要讲技术现实,也要讲合规结果。

主持人:这也意味着平台的责任更重了——要在真假难辨之间判断“误认”的风险。平台在治理中,是否也会处理这类“酷似者”问题?

卢宁宁:这类灰区是治理中最棘手的部分。我们的做法是:以场景和意图为判断标准。如果AI生成内容带有误导性,比如假冒名人推销商品,或以虚假身份带货,我们会纳入AI滥用治理范畴处理。

与此同时,我们发现另一种类似问题——“虚假人设”。一些账号包装成“情感导师”“教育专家”,通过制造焦虑来带货卖课。这其实与“酷似名人”的问题类似,都是利用虚假身份攫取信任。我们采用“AI审核+人工复审”的双重机制,对此类账号分级处罚,多次违规的直接封禁。在平台治理中,我们希望把重点放在“误导性”而非“相似性”上,让边界既有弹性,也有底线。

主持人:张凌寒教授,您长期研究治理体系,您认为在“避风港”和“红旗”之间,是否存在一个兼顾创新与责任的平衡点?

张凌寒:我不赞成把平台责任问题理解成“要么放任、要么封杀”的二选一。AI治理更合理的方向是“包容审慎、分类分级”。

对于已经造成明显社会危害、且技术上可识别的高风险应用——比如无标识的名人仿冒带货——必须明确红线并严格执行,包括显著标识义务、可追溯机制、误导禁止、跨平台联合惩戒。而对低风险、公共利益导向的创新场景,则应当动态评估、滚动调整。

我常说一句话:“以可控换可用”——通过可验证的技术手段与可执行的制度安排,换取有益创新的自由。法律的目标不是让技术止步,而是让创新行稳致远。

从“九龙治水”到“协同共治”

主持人:张教授,“风险分级”的思路确实具有可操作性。但现实中还有一个问题——像这次AI造假事件,其实同时涉及广告监管、内容管理,以及对涉嫌欺诈行为的查处。市场监管部门管广告,网信部门管内容,公安部门负责处理涉嫌诈骗的线索。我们现在这种分散的管理格局,在应对这类新型问题时,会不会遇到挑战?

张凌寒:是的,这种分散格局确实会产生执法空隙与责任推诿。解决思路不在于简单合并机构,而在于把系统性治理落到机制上。

短期看,要有高效的跨部门协调机制与执法标准互认。比如网信管内容生成、市场监管管广告经营者责任、公安针对诈骗链条,要形成闭环与联动处置。长期看,则必须通过更高位阶的人工智能立法,明确“谁主责、何时介入、如何衔接”的总则性规范,补齐碎片化与缺乏统筹的制度短板。

主持人:在国家层面的人工智能法规出台之前,我们看到北京、上海等地在积极推动地方立法。李律师,您如何看待“地方先行”?

李旻:地方立法完全可以成为国家AI治理的“压力测试场”。北京、上海、深圳都在探索AI管理条例,比如建立AI产品清单、审查机制等。这些实践能让国家立法更具操作性,避免停留在原则层面。地方立法先行,可以及时回应风险,也能为国家立法积累样本,降低制度设计的试错成本。

张凌寒:我支持地方“先行先试”。地方试点可以把真实问题“暴露出来”,为中央层面的顶层设计提供可验证的样本。关键是把反馈链条打通:地方明确场景、评估风险,中央在此基础上做比例原则审查,提升规则的通用性。

主持人:“共治”除了部门协同,是否也包括社会参与?当公众面对真假难辨的AI内容时,他们是被动的“受害者”,还是积极的“共治者”?

赵精武:“AI识读力”不仅是识别能力,更是一种理性使用AI的社会能力。我们需要让公众知道,AI生成内容本身不是天然有害,有害的是对这一技术的滥用。比如AI换脸用于自娱自乐没问题,但用来虚假带货就触及了违法边界。因此,AI识读教育有必要纳入学校教育体系,而且也需要通过媒体传播持续向公众普及。

张凌寒:这是一个很好的提炼。标识制度是“他律”,识读力是“自律”。教育与媒体传播应当同步发力。同时,伦理机制在制度未完善时也要发挥“先导约束”。例如“AI复活逝者”,取得近亲属明示同意是最低标准;未经同意的“复活”,涉及人格尊严,则不应以“技术可能”替代“正当性”。

主持人:当然,这种“协同共治”也离不开平台。平台在整个治理体系中扮演什么角色?

卢宁宁:我们认为“治理”不是单向管理,而是监管部门、平台、用户和社会的共治。我们正在探索如何在用户端强化“AI识别提示”,让公众在面对可能的AI生成内容时能更容易做出判断。未来平台会继续用更高的标准、更精准的技术、更开放的态度,切断“有害信息的利益链条”,守护网络空间的真实与清朗。

主持人:感谢四位嘉宾的精彩分享。今天这场讨论让我们再次认识到,AI技术叠浪前行,法律、伦理与监管也应及时有效跟进,这确实给治理带来现实挑战。

当真实需要被证明,信任本身就已成为社会的成本。未来的AI治理,必须在一张有机的网络中运转——法律给出方向,平台承担责任,技术守住底线,公众学会识别与共治。

AI越来越聪明的时代,更应是制度有温度,技术有边界,公众有判断的时代。

未经允许不得转载: 浩江娱乐网 » 当“李逵”遇上“AI李鬼”