解志勇谈高风险人工智能系统的规制——
应秉持包容审慎与合作规制理念
法治日报
2025年06月04日
中国政法大学解志勇在《中外法学》2025年第2期上发表题为《高风险人工智能的法律界定及规制》的文章中指出:
鉴于人工智能普遍应用带来的促进经济效益、社会进步、文明更迭等价值,拥抱人工智能已成为时代所趋。人工智能是计算机科学的一个重要分支,是模拟、延伸和拓展人类智能活动的科学,基于此底层科学逻辑,其风险也应当是可认知、可描述、可分析的,具有可界定性。与欧盟《人工智能法》确立的一般风险治理进路不同,我国可采取“风险+情境融合治理”的进路,以高质效应对高风险人工智能的系统风险。
“高风险”的界定标准,可基于人工智能本体能力强弱、功能作用对象、潜在致害程度三个维度进行确认。首先,风险级别与人工智能本体强弱呈正相关关系。人工智能按照其本体强弱的能力区分,可分为弱人工智能、强人工智能和超级人工智能三类。强人工智能与超级人工智能原则上均属高风险系统;弱人工智能是否属于高风险系统,还需结合具体情境加以讨论。其次,直接作用对象为“重大安全”,涵盖国家安全、社会公共安全、个人生命安全以及其他重要基本权利安全。最后,存在对“重大安全”造成实质性显著减损的可能。
高风险人工智能系统的规制,主要在特定情境中针对其安全性展开,在促进人工智能科技进步的同时,应遵循合法性原则、科技伦理约束原则、技术治理原则,秉持包容审慎与合作规制理念。
高风险人工智能系统的情境化规制,应当以重大安全维护为规制目标,在我国未来的专门立法进路上,应采取“行为规制+个体赋权”的立法模式,进行事前、事中、事后的全过程治理。对高风险人工智能系统进行事先规制,主要通过管理情境化具体清单、制定高风险技术标准、设置安全评估以及预防型备案制的方式开展,彰显“智能法律预测化”导向;对高风险人工智能系统的事中规制,主要依靠强化此类系统研发、提供、使用者的义务体系建设,健全风险监测预警、报告响应机制,建立科技伦理跟踪审查工作机制等手段;对高风险人工智能系统的事后规制,在行政法律责任承担方面,主要包括行政处罚、失职问责以及行政救济等形式。