01版:要闻

02版:法治

03版:政法

04版:法治经纬

05版:评论

06版:案件

07版:军事广角

08版:综合

09版:法学院

10版:法学院

11版:法学院

12版:综合

13版:公告

生成式人工智能价值链行政监管与侵权责任的匹配

法治日报      2025年03月19日     
  □ 谢尧雯

  生成式人工智能技术系统基于价值链开展研发、生产、应用活动,牵涉多个主体的复杂互动且伴随机器自主学习。从行为规制视角来看,行政监管与侵权责任是约束价值链参与者行为的主要规制框架。法经济学方法以“事前观点”审视侵权责任,即事后损害赔偿构成对行为人事前行为的激励。在此意义上,侵权赔偿客观上激励了一般社会主体采取措施预防损害发生,促使侵权机制在一定程度上发挥了“设定行为标准、监督与执行行为标准”的规制功能。人工智能侵权与传统侵权存在显著区别,侵权责任的制度功能需要从个体救济向公共治理倾斜。事实上,从工业化时代开始,侵权法就朝着责任分配方向发展,责任设置亦通常超越直接涉案主体,将社会保险、责任保险等制度纳入分析框架。数字时代对这种责任分配转变提出了更迫切的需求,这也表明侵权制度已不再是单纯依赖个案救济间接实现行为规制,而是通过责任分配直接承担公共治理的职能。因此,寻求行政监管与侵权责任在行为规制层面的匹配机制,对于人工智能规制设计至关重要。
  人工智能价值链行政监管与侵权责任的效率匹配框架
  行政监管的优势在于,监管部门可以通过专业性知识、规模化监控与多元执法手段预防损害发生。但在某些情形下,制定行为标准所需的重要信息,是伴随风险活动的开展而生成的附属品,无法在活动发生前被监管者感知并获取。侵权责任的场景信息获取优势对于人工智能效率规制至关重要。人工智能技术带来的社会影响更多体现为变革知识生产方式、个体生活方式、社会交互交往形式等价值性影响。在价值多元与变动的社会中,科技与社会是协同发展的关系,事前规制性规则试图通过特定节点的价值理念来约束技术发展,很容易随着时间的推移而丧失其合理性。侵权责任待损害发生后进行回应,将更显审慎性与针对性,减小了过度管制、扼制创新的风险。行政监管制度设计需要明确其必要性与目标、限度,为侵权机制制定符合场景特征的最优风险预防行为标准预留空间。由于价值链中的每一方参与者都有可能对最终结果产生一定程度的影响,事前监管应当为价值链主体设定基础行为义务,促使各主体形成秩序互动与协同治理,从而确保技术系统维系一定程度的安全与公正水平。
  行政监管的必要性与目的得以论证后,接下来的问题是——行政监管对于侵权责任的作用是什么,二者如何构建衔接机制。规制性规范厘定了侵权责任的基础框架,侵权机制依赖规制性规范设置的风险级别分配风险预防责任,而且违反规制性规范将构成侵权过错责任中的过失。人工智能技术迭代速率日益增进,法院具有场景信息获取的优势,但欠缺专业优势,难以在权衡技术发展的社会影响与预防措施成本的基础上独立判断责任归属。其一,行政监管规则应当成为界分过错责任与无过错责任的框架。有必要通过行政监管来制定人工智能技术风险分级标准,侵权机制则依据风险级别设置无过错责任与过错责任。对于高风险人工智能系统,采用无过错责任可激励技术研发者积极投入更多不可观测的预防努力,以确保技术的安全与公正研发,并通过影响行为量的方式逐步控制此类人工智能技术数量。对于低风险人工智能系统,则适用过错责任,以实现社会共同承担技术发展的剩余风险,进而激发人工智能技术的创新活力。其二,以行政监管规则框定侵权责任构成要件。具体行为标准规定价值链主体应当或禁止采用的技术标准或行为措施,违反该标准将被认定为存在过错,绩效标准与内部管理型标准成为侵权责任链接政府监管与行业自治的中介。
生成式人工智能价值链的行政监管
  将人工智能系统价值链划分为研发、生产阶段与应用阶段,并根据不同阶段特征为核心主体设置公法行为规范。行政监管的核心目标是以核心主体为规制抓手,推动价值链参与者形成秩序互动、确保人工智能系统维系一定程度的安全水平。其一,研发与生产阶段涉及将何种数据、算法、功能嵌入到人工智能系统中,行政监管重点在于规范“算法影响评估程序”,确保人工智能系统嵌入公平、公正、透明等重要价值理念。其二,在人工智能应用阶段,使用者能够通过调适使用方式来减少事故发生概率,行政监管规则发挥了关系建构作用,其通过影响使用者与人工智能系统的互动策略,形塑一种秩序化的人机关系。其三,人工智能价值链各环节紧密相连、互相影响,行政监管需要建立信息共享机制,为核心主体履行义务提供必要支撑。
  就生成式人工智能价值链行政监管而言:其一,基础模型提供者应当履行数据公平保障义务和系统安全保障义务。行政监管应制定程序规则,通过规范内部管理程序促使研发者将个人信息保护目标嵌入数据处理程序。在激励相容监管理念指引下,对普通基础模型进行包容审慎监管,并对达到一定规模者提出安全保障要求。其二,专业模型研发者应当履行算法影响评估义务。专业模型研发者基于特定应用目标训练基础模型,能够感知人工智能系统的应用场景且控制用户界面,对生成内容进行了预先谋划与控制。因此,从风险控制能力出发,法律要求专业模型研发者开展影响评估符合效率目标。其三,生成式内容服务提供者应当履行内容管控义务。终端用户的提问输入行为与传播使用行为对于促成损害结果至关重要。行政监管应当规范终端使用者、内容受众与机器的交互方式,从而引导他们开展高效的风险预防行为。其四,行政监管亦需要建立一定程度的透明机制,确保核心主体具有充足信息进行风险防控。就生成式人工智能系统而言,这种透明机制应当包括上游向下游传达信息、下游向上游反馈信息。
  生成式人工智能价值链行政监管与侵权责任的衔接
  应当按照价值链行政监管的逻辑来设置侵权责任,依据研发生产环节与应用环节的区分,分别为人工智能系统提供者与使用者设定相应的产品责任和使用责任。为充分激励生产研发阶段的安全预防投入,一个更可行的路径是,生成式人工智能服务提供者适用产品责任。生成式人工智能作为一种软件,具有批量生产、规模销售的特点,其是面向不特定用户而非提供一对一定制化服务。同时,提供者能通过定价机制来分散风险,这与产品责任的制度目标相契合。
  通过精细化的产品责任制度设计可以实现侵权责任与行政监管的有序互动。设计缺陷的认定是生成式人工智能产品责任的难点,亦构成撬动侵权与监管进行效率衔接的关键着力点。法院在判断技术运行逻辑、技术的社会影响、技术的社会选择方面存在专业弱势,应当依赖行业知识形成多元主体技术共治。就此而言,法院在判断生成式人工智能是否构成设计缺陷时,有必要在行政监管规则框架下,综合考虑行业自治因素。法院应当以行政监管设置的抽象绩效标准与内部管理型标准为框架,在具体个案中判断企业自我规制是否达到了合理注意要求。一方面,生成式人工智能研发实践的重要特征是专业性,即依赖专业团体的知识与能力,因此相应的合理注意应当以专业团体的合理注意为标准。另一方面,现阶段行业实践在生成式人工智能研发的有效性、安全性、问责性、可解释性、公平性等方面仍存在诸多分歧,在共识难以达成时,尊重现有技术水平下的不同实践方法比确定单一合理标准更合适。评估自我规制是否完善的核心在于内部管理程序是否规范,因此法院亦应当以程序为抓手,通过评估技术研发实践所遵从的标准或行为守则的制定程序、技术研发的伦理审查程序、该实践在行业内的接受程度等,判断不同实践是否达到合理注意标准。同时,基于行政监管确定的风险规制框架,对于达到一定规模的大模型研发以及应用于高风险领域的生成式人工智能服务提供者,法院应当适用更严格的缺陷判断标准。
(原文刊载于《政法论坛》2025年第2期)