您的位置 : 环球研究 / 环球评论 / 新闻详情
环球科技法前沿系列 | 《人工智能科技伦理审查与服务办法(试行)》的挑战与思考
2026年05月07日王可 | 顾益宇

2026年4月2日,工业和信息化部等十部门印发了《人工智能科技伦理审查与服务办法(试行)》(工信部联科〔2026〕75号,以下简称“《办法》”[1])。该《办法》是此前科技部领衔发布的《科技伦理审查办法(试行)》[2]在人工智能领域的具体落地,由工业和信息化部负责牵头。围绕前沿技术可能带来的伦理风险,我国正在形成一套体系化的规制框架,覆盖金融[3]、生命科学与医学研究[4]、脑机接口[5]、虚拟现实[6]、驾驶自动化[7]等重点领域,体现出由一般科学研究规范向具体技术领域和应用场景延伸适用的趋势。

 

随着人工智能技术的广泛应用,社会公众和监管部门对其影响的认知已开始直接触及人的尊严、生命健康、公共秩序、社会公平以及可持续发展等深层次问题。人工智能的治理问题已经不只是提出原则性方案,而是要把这些原则性要求转化为可执行、可审查、可验证的制度安排。从国际上看,欧盟人工智能法虽然已经形成较完整的风险治理框架,但其存在的诸多问题仍反映出现实的复杂度,包括治理制度的分阶段实施、配套指引和执法标准有待补充,以及部分关键义务的迟延适用等问题。中国人工智能监管体系同样面临着类似的将规则、原则落实到标准、程序和执法中的实践挑战。《办法》出台的意义就在于推动人工智能治理在伦理层面从价值宣示走向制度实施。对于企业发展而言,这不仅意味着现实的合规压力,也意味着建立相应治理规范具有更为重要的战略发展意义。

 

一、中国人工智能科技伦理审查机制的基本内容

 

(一)人工智能科技伦理审查的边界

 

根据《办法》第二条,在中华人民共和国境内开展的、可能在人的尊严、公共秩序、生命健康、生态环境、可持续发展等方面带来科技伦理风险挑战的人工智能科学研究、技术开发等活动,以及依据法律、行政法规和国家有关规定需要进行人工智能科技伦理审查的其他科技活动,应开展伦理审查。

 

从事人工智能科技活动的高等学校、科研机构、医疗卫生机构、企业等(以下简称“单位”)是本单位人工智能科技伦理审查管理的责任主体,应设立人工智能科技伦理委员会(以下简称“委员会”)并独立开展工作。委员会组成应包括人工智能技术、应用、伦理、法律等相应专业背景的专家。

 

从适用范围看,该要求并非对所有人工智能活动全部适用,而是以相关活动是否可能引发法定科技伦理风险为基本判断标准。这一机制建立在既有科技伦理治理体系基础之上,并向人工智能专门技术领域延伸,其适用机制天然具有风险导向和场景导向的特征。人工智能科技活动一旦涉及与人相关的数据、人的参与,或与高风险现实场景发生紧密联系,就可能需要遵守现有科技伦理审查的规则框架。

 

(二)科技伦理审查的申请

 

单位中从事人工智能科技活动的负责人应向本单位委员会,或地方、相关主管部门建立的专业性审查与服务中心(以下简称“服务中心”),提出审查申请。

 

申请材料应包括人工智能科技活动方案,包括研究拟采用的算法机制机理、数据来源与获取方式、测试评估方法、预期应用领域和适用人群等;科技伦理风险评估情况、防控及应急处理预案、风险监测预警措施等;以及遵守相关科技伦理和科研诚信要求的承诺书。

 

委员会或服务中心在申请受理后的30日内应作出批准、修改后再审或不予批准等决定。

 

(三)高风险场景下的专家复核机制

 

人工智能科技伦理审查机制的一个重要特点,在于其特别强调高风险场景下的专家复核程序。根据《科技伦理审查办法(试行)》第二十五条的规定,对可能产生较大伦理风险挑战的新兴科技活动实施清单管理。在本单位委员会或服务中心初步审查意见基础上,应当由本单位申请开展专家复核,对初步审查意见的合规性和合理性等内容进行复核。

 

按照《办法》第二十一条的规定,工业和信息化部、科技部会同有关部门制定发布“需要开展科技伦理专家复核的人工智能科技活动清单”(以下简称“复核清单”),并根据工作需要进行动态调整。从目前《办法》发文所附复核清单看,需要纳入专家复核的主要包括三类。

 

第一类是对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统研发。这类活动的影响对象不只是一般意义上的数据或工具,而是直接触及人的认知、行为、情绪、心理状态乃至生命健康。相较于一般技术应用,这类系统更容易介入人的自主性和人格利益,因此也更容易引发较大的伦理风险。

 

第二类是具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统研发。这类活动所引发的风险在于其可能对社会认知、信息传播、公共舆论和群体行动产生显著影响。它所对应的风险维度,已经超出一般的个体权益保护,而进入公共秩序、社会治理和意识形态引导层面,因此被纳入高风险复核范围。

 

第三类是面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统研发。这类活动通常最容易与现实世界中的人身损害、财产损失以及责任认定问题直接相连,例如自动驾驶系统、医疗器械使用人工智能辅助诊断等应用。

 

(四)专家复核机制的程序

 

从程序结构看,专家复核机制具有明确层级,带有明显的行政色彩。根据《办法》第二十二条的规定,中央企业、中央和国家机关直属高校、科研机构、医疗卫生机构等,在完成初步审查后,直接报请国务院相关主管部门组织开展专家复核;其他单位则由地方组织复核,即由省级人民政府确定的负责人工智能领域科技伦理审查和管理工作的省级管理部门负责组织。根据《科技伦理审查办法(试行)》第二十五条的规定,复核专家组由相关领域同行专家以及伦理学、法学等方面的专家组成,不少于5人。地方或相关主管部门应在收到复核申请后30日内向申请单位反馈复核意见。

 

高风险人工智能科技活动所需要的专家复核,并不只是内部管理责任,而是一个由单位内部委员会或地方、相关主管部门服务中心初步审查,与主管部门专家复核共同构成的分层程序结构。

 

(五)人工智能科技伦理审查的制度特征

 

中国人工智能科技伦理审查机制呈现出几个较为鲜明的特征。

 

一是风险导向。其核心并不在于是否使用了人工智能这一名称,而在于相关科技活动是否可能对人的尊严、生命健康、公共秩序、生态环境和可持续发展带来实质性的伦理风险。这使得适用范围本身具有较强的实质判断要求,对基层单位的风险识别能力和管理提出了较高的要求。

 

二是嵌入现有科技伦理体系。人工智能科技伦理审查并不是完全独立于既有制度之外的特殊安排,而是与《科技伦理审查办法(试行)》、涉及人的生命科学和医学研究伦理审查制度等共同构成一个更广义的科技伦理治理体系。这意味着,相应的伦理审查需要结合是否涉及人的研究参与、是否涉及敏感数据或样本使用、是否进入高风险现实场景等因素来综合判断。

 

三是分层分类。并不是所有进入适用范围的活动都接受同一强度的审查,而是至少区分为一般审查与高风险复核两个层次。

 

因此,人工智能科技伦理审查机制是一个与风险识别、程序安排、场景判断和制度衔接密切相关的程序。它决定了哪些人工智能科技活动需要接受伦理审查,哪些活动需要进入更高强度的专家复核程序,以及相关主体应当承担何种程度的程序义务和材料准备责任。

 

二、人工智能科技伦理审查的重点与科学方法论要求

 

(一)人工智能科技伦理审查的核心重点

 

根据《办法》第十五条,人工智能科技伦理审查主要关注六个方面。

 

其一,人类福祉。重点考察人工智能科技活动是否具有科学价值和社会价值,研究目标是否有助于增进人类福祉、促进社会可持续发展,以及其风险与收益之间是否保持合理比例。

 

其二,公平公正。重点考察训练数据的选择标准、算法模型和系统设计是否合理,是否采取措施防止偏见歧视、算法压榨,并保障资源分配、机会获取和决策过程的客观性与包容性。

 

其三,可控可信。重点考察模型和系统是否具备足够鲁棒性,能否应对开放环境、极端情况和干扰性因素,是否保留使用者控制、指导和干预的能力,并建立持续监测和突发状况处理机制。

 

其四,透明可解释。重点考察人工智能系统的用途、运行逻辑、交互方式和潜在风险是否得到合理披露,是否通过有效技术手段提升系统的可解释性。

 

其五,责任可追溯。重点考察是否通过日志管理等方式,对数据、算法、模型和系统各环节形成充分记录,保障全链路可追踪和责任识别。

 

其六,隐私保护。重点考察数据收集、存储、加工、使用等处理活动是否采取充分措施,确保隐私和个人信息安全。

 

六个维度构成了中国人工智能科技伦理审查完整的价值框架,反映了中国工业、信息科技产业、教育科研等主管部门对科技发展社会价值和科学方法论的高度关注。

 

(二)科学方法论对审查工作的要求与挑战

 

科技伦理审查的价值框架基本涵盖了现代数据治理和人工智能治理的主要要求。对于执法者而言,真正的困难在于如何操作落地。相关审查的标准如何细化,审查程序如何保证科学有序,审查结论依据何种权威性意见作出,何种审查说明和何种测试足以支持“合规性”、“合理性”判断等等都是落地实施需要解决的问题。《办法》第六条特别鼓励高等学校、科研机构、医疗卫生机构、企业和科技类社会团体开展相关的审查研究,支持审查技术创新,强化以技术手段防范伦理风险;促进科技伦理审查高质量数据集的开源开放,加强通用性风险管理、工具研发、风险评估测评;保护科技伦理审查技术的知识产权。

 

1. 公平公正要求的实体化

 

人工智能系统中的不公正后果,往往并不只是出现在输出端或生成内容上,而会在数据收集、样本筛选、标签设定、目标函数选择、参数优化、反馈学习和部署场景选择等多个环节埋下诱因。因此,公平、公正的标准不能停留在抽象的法学论证层面,而必须进入技术设计和实施的内部,考察数据、训练过程、模型机制、代码实现和部署方式。倘若不能深入这些技术细部,很多偏见的生成路径、放大机制和应用后果将难以被有效识别。

 

也正因如此,人工智能伦理风险评估不能只是笼统要求“不得歧视”,而应进一步回答一系列的实践问题:训练数据中的偏差如何识别,模型输出中的差异性影响归因如何,哪些差异属于可接受误差,哪些已构成伦理上不可接受的不公正后果,模型持续迭代是否会进一步放大既有偏见,技术升级时又应如何同步纳入公平要求。公平公正的原则之所以难以落地,正在于它们横跨价值判断、技术判断与制度判断三个层面,需要法学、伦理学与人工智能技术与其应用科学互相借鉴、共同介入。

 

2. 可控可信要求的实体化

 

人工智能科技伦理审查规范也要求模型和系统具备鲁棒性,能够应对开放环境、极端情况和干扰因素,并保留使用者的控制和干预能力。在复杂模型、开放世界任务和多主体协作场景中,何为可信模型,何种意义上的“可控”才是真正能够发挥纠偏和中止作用的控制?对此都需要实体化的判断标准。

 

模型在实验环境中的稳定表现,并不当然意味着其在真实场景中同样具有可接受的风险边界。系统在一般条件下可以容纳人工干预,也不意味着在高压、实时、复杂联动的环境中容纳这种干预依然可能。尤其是在大模型、自动化决策系统和人机协同系统中,可控可信的目标往往需要综合考虑鲁棒性、安全性、稳定性、可预测性、失效边界以及应急处置能力,需要一个对实证数据和理论假定的检验和验证过程。

 

3. 透明可解释要求的实体化

 

透明可解释虽然在制度上已经成为共识,实践中用“黑箱”来应对的情况比比皆是。但是,透明可解释并不只是简单的信息披露,而涉及解释对象、解释内容、解释粒度和解释目的的差异。模型和系统面向监管者的可审计性、面向专业机构的模型可证伪性、面向普通用户的可理解性,并不处在同一层面,也不适用同一套说明方式。

 

现实中的难点在于,复杂模型的解释说明究竟应达到什么程度?何种说明方式才足以支持人工智能科技伦理审查中的合规判断?何种材料方能构成具有证明力的证据?操作实践往往容易出现“有说明但不够用”的情况。很多为了合规而提供的“解释”停留在原理概述、功能说明或风险提示层面,不足以支撑对模型行为逻辑、风险来源和决策过程的实质判断。可解释性的证据证明力问题,是当前人工智能治理的关键难点之一。

 

4. 责任可追溯要求的实体化

 

责任可追溯并不只是要求有日志、有留痕,而是要求这些记录能够真正支持责任识别和责任划分。在基础模型、行业模型、下游应用和部署运营多环节交织的现实格局下,一个风险事件往往同时涉及数据来源、模型训练、参数调整、接口调用、场景适配和运营管理等多个环节。若记录无法转化为可读、可关联、可证明的事实依据,所谓追溯就很容易停留在管理留痕的简单层面,难以真正用于解决责任认定问题。

 

总体而言,上述几项要求的共同难点在于,它们虽然已经在规范层面形成了较清晰的价值共识,但在操作层面仍然面临从原则到标准、从预期到实证、从抽象判断到程序实施的转化困难。当前人工智能科技伦理审查面临的核心任务,是围绕这些原则形成实际操作指引,建立可识别的风险指标、可审查的核心要点、可验证的技术方案和流程要求等规范体系。

 

(三)比较视角下的伦理审查

 

从比较法视角看,对照《欧盟人工智能法案》的相关制度安排,我们可以发现,人工智能系统有关可信、可解释、风险控制、技术文档、人类监督等方面的基本要求在中欧并无根本差异。无论是国内制度还是欧盟规则,其基本逻辑都是围绕高风险人工智能系统建立更强的风险控制能力、更明确的透明度义务以及更清晰的责任链条。

 

这也意味着,对于有出海需求的企业而言,模型和产品的合规建设并不必然要从境外规则重新起步。就可信、可解释、风险管理、人类监督等基础性要求而言,完全可以从国内规则体系出发,逐步衔接国际市场所要求的合规标准。国内人工智能伦理与治理规则,不仅具有内部治理意义,也能够在相当程度上为企业出海提供前期的合规对标基础。

 

同时,中欧在这一领域面对着共同难题。公平公正的要求如何进入模型训练、如何嵌入系统评估、如何成为具有可操作性的审查标准、如何形成具有证明力的审查结论等问题同时困扰着中欧监管机构。

 

欧盟人工智能统一立法选择了建立专业机构作为守门人的路径,试图要求独立第三方开展符合性评估(conformity assessment)来完成这种跨学科的任务。中国在科技伦理审查上,则试图建立一种“行政主管部门监管+专家审查+顾问咨询”的模式。

 

三、结语:解决挑战问题的一些思路

 

人工智能科技伦理审查面对的并不是一个边界天然清晰的对象领域。哪些因素可能影响公平公正,哪些技术特征足以触发更高强度的伦理审查,哪些应用应纳入重点范围,哪些情形又应适度排除在外,都是可能引发争议的判断问题。

 

(一)建立专业的评价标准和审查依据

 

解决上述问题,首先需要建立更专业的评价标准和审查依据。尤其在公平、公正、可信、可解释、可追溯等核心议题上,应由伦理学、技术科学和法学等交叉学科共同推动形成更具实操性的解决方案,并在理论和学术层面为这些方案提供相应的学理支撑和经验验证。我们期待中国法学和社会科学对公平、公正等原则要求的研究,不再停留在概念归纳和抽象论证层面,而是与技术分析结合起来,进入模型、数据、代码和系统部署的真实运行过程之中。

 

比较不同应用场景下人工智能科技伦理审查关注的重点问题,我们也发现这些判断问题的设定高度依赖环境因素。例如,驾驶自动化强调安全、可控、可追溯与责任识别;虚拟现实场景应用更突出行为操控、沉浸风险、社会认知偏差与动态警示;脑机接口则高度关联知情同意、长期安全验证、隐私保护与被试者权益。因此,人工智能科技伦理审查不可能依靠一套完全抽象、普遍适用的统一标准,必须面对不同领域中的不同重点与边界问题。人工智能伦理审查要真正落地,必须深入挖掘具体场景和技术应用,形成相匹配的审查依据和证据标准。

 

(二)建设专业评价机构,提高专家的专业和资质要求

 

应尝试建设更专业的评价机构,并提高专家成员的专业和资质要求。人工智能科技伦理审查不能长期依赖松散、临时和高度个案化的专家组织方式,而应逐步形成相对稳定的评价机构体系,使其能够承接审查咨询、专家复核、方法论更新、案例积累和经验沉淀等功能。与此同时,专家遴选的范围也可以更为扩大,吸收商业伦理、社会科学、经济行为学等多学科人员,同具有实务经验的技术人员一起,共同构成真正具备交叉学科、综合判断能力的评价共同体。

 

(三)在伦理遵从方面建立“看门人”机制

 

在伦理遵从方面,需要由专业评价机构设立标杆,逐步形成类似欧盟高风险人工智能治理中第三方合规评定与外部确认的机制,建立技术和应用市场中的伦理合规“看门人”机制。“看门人”可以是委员会或服务中心,也可以是独立的第三方机构。这并不是简单照搬境外模式,而是要形成一种相对稳定、独立于申请单位的具有公信力的外部评价机制,使人工智能技术和产品在进入高风险应用场景、关键行业或更广泛市场之前,能够经过专业、独立、可验证的伦理与合规评估。

 

(四)完善专家委员会机制,保持相对独立性

 

所谓相对独立,一方面是指专家委员会不宜完全受制于单一监管部门、单一企业主体或单一技术路线的偏好,而应在制度上保有独立评议和专业判断空间;另一方面也意味着其判断应建立在稳定的方法论、公开透明的程序和跨学科的专家结构之上,而不是依赖个别专家的经验直觉。

 

专家委员会不是形式上的咨询顾问,而应当嵌入人工智能研发与应用的全过程,对关键实施要素给予持续、专业、相对独立的评价和判断,必要情况下,应在科技项目立项评估阶段就将伦理审查嵌入流程。

 

(五)企业加强伦理管理能力,有效应对风险

 

对企业而言,关键在于尽早把伦理审查能力转化为研发和合规能力的一部分。只有当原则、程序、证据与责任之间的衔接关系逐步打通理顺后,人工智能科技伦理审查才可能真正成为一套既能管理风险、又能兼顾创新的治理机制。

 

注释:

[1] 该办法由工业和信息化部牵头,参与部门还包括国家发展改革委、教育部、科技部、农业农村部、国家卫生健康委、中国人民银行、国家网信办、中国科学院、中国科协,2026年4月2日。

[2] 科技部、教育部、工业和信息化部、农业农村部、国家卫生健康委、中国科学院、中国社科院、中国工程院、中国科协、中央军委科技委:《科技伦理审查办法(试行)》,2023年10月8日。

[3] 中国人民银行:《金融领域科技伦理指引》,2022年10月9日。

[4] 国家卫生健康委、教育部、科技部、国家中医药局:《涉及人的生命科学和医学研究伦理审查办法》,2023年2月18日。

[5] 国家科技伦理委员会人工智能伦理分委员会:《脑机接口研究伦理指引》,2023年12月。

[6] 国家科技伦理委员会人工智能伦理分委员会:《虚拟现实研发伦理指引》,2025年4月。

[7] 国家科技伦理委员会人工智能伦理分委员会:《驾驶自动化技术研发伦理指引》,2025年7月23日。