21世纪经济报道记者 冉黎黎
今年政府工作报告首次提出“打造智能经济新形态”,并强调“完善人工智能治理”。
人工智能科技伦理治理是人工智能治理的重要组成部分。近日,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),为我国人工智能科技伦理审查与服务工作提供了明确指引。
《办法》对人工智能科技伦理审查的适用范围、服务促进、实施主体、工作程序、监督管理等作出规定,并结合人工智能科技活动特点,明确了申请与受理、一般程序、简易程序、专家复核程序、应急程序等不同程序要求,有效规范人工智能科技活动伦理治理。
受访专家指出,《办法》实质上为人工智能产业确立了“伦理先行”的治理逻辑,将伦理审查从软性约束转变为刚性制度。它既守住安全底线,防范隐私泄露、算法歧视、深度伪造等风险,又通过分级审查避免“一刀切”,为创新留足空间,有利于提升我国AI产业的合规性、可信度与全球竞争力,推动智能经济高质量、可持续发展。
(资料图)
要求责任主体设立AI科技伦理委员会
《办法》明确,本办法所适用的人工智能科技活动是在中华人民共和国境内开展的,可能在人的尊严、公共秩序、生命健康、生态环境、可持续发展等方面带来科技伦理风险挑战的人工智能科学研究、技术开发等活动,以及依据法律、行政法规和国家有关规定需进行人工智能科技伦理审查的其他科技活动。
对于实施主体,《办法》中指出,从事人工智能科技活动的高等学校、科研机构、医疗卫生机构、企业等是本单位人工智能科技伦理审查管理的责任主体,应按照《科技伦理审查办法(试行)》(以下简称《伦理办法》)第四条有关要求,设立人工智能科技伦理委员会(以下简称“委员会”)。委员会组成应包括人工智能技术、应用、伦理、法律等相应专业背景的专家。
《办法》中指出,地方、相关主管部门可结合实际情况依托相关单位建立专业性人工智能科技伦理审查与服务中心(以下简称“服务中心”)。服务中心接受其他单位委托,提供人工智能科技活动伦理审查、复核、培训、咨询等服务。
从工作程序上来看,《办法》指出,人工智能科技活动负责人应向本单位委员会申请,单位未设立委员会或委员会无法胜任科技伦理审查工作要求,向本单位委托的服务中心申请开展科技伦理审查,无单位人员应委托符合要求的服务中心开展科技伦理审查。人工智能科技活动负责人应依照规定向委员会或服务中心提交申请材料。申请材料主要包括人工智能科技活动方案、人工智能科技活动科技伦理风险评估情况、防控及应急处理预案等。
赛迪顾问人工智能与大数据研究中心高级分析师白润轩对21世纪经济报道记者表示,《办法》确立了高等学校、企业等作为伦理审查第一责任人的主体地位,强制要求设立伦理委员会,改变了过去单纯依赖外部监管的被动局面。
此外,《办法》专门设立第二章“服务与促进”,围绕标准建设、促进服务、鼓励创新、宣传教育、人才培养五个方面制定举措,破解当前人工智能企业伦理治理中存在的技术手段不足、标准规范不完善、治理工具匮乏等问题。
一是鼓励高等学校、科研机构、医疗卫生机构、企业和科技类社会团体等参与人工智能科技伦理标准制定,凝聚行业共识,完善标准体系。
二是推进人工智能科技伦理服务体系建设,强化风险监测预警、检测评估、认证、咨询等服务供给,加大对中小微企业人工智能科技伦理审查的支持和服务力度,降低企业合规成本。
三是支持人工智能科技伦理审查技术创新,鼓励企业运用技术手段防范伦理风险。
四是加强人工智能科技伦理宣传教育,提升公众伦理意识和素养。
五是推动职业体系和课程体系建设,采取多种方式培养人工智能科技伦理人才。
设立分级分类审查模式
科技部国家科技专家库专家周迪对21世纪经济报道记者表示,《办法》的出台标志着我国人工智能伦理治理从原则倡导进入制度化、可落地的新阶段。它既守住安全底线,防范隐私泄露、算法歧视、深度伪造等风险,又通过分级审查避免“一刀切”,为创新留足空间,有利于提升我国AI产业的合规性、可信度与全球竞争力,推动智能经济高质量、可持续发展。
具体来看,《办法》结合人工智能科技活动特点,明确了申请与受理、一般程序、简易程序、专家复核程序、应急程序等不同程序要求。
在“一般程序与简易程序”这一节中,《办法》明确,委员会或服务中心开展人工智能科技伦理审查,重点关注人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护等方面。
其中,在人类福祉方面,重点关注人工智能科技活动是否具有科学价值、社会价值;研究目标对增进人类福祉、实现社会可持续发展等是否具有积极作用;人工智能科技活动的风险是否受益合理。
在公平公正方面,重点关注训练数据的选择标准,算法、模型、系统的设计是否合理;是否采取措施防止偏见歧视、算法压榨,保障资源分配、机会获取、决策过程的客观性与包容性。
另外,需要开展专家复核的人工智能科技活动主要包括以下三类:一是对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发;二是具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;三是面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。开展专家复核的人工智能科技活动,需先通过本单位人工智能科技伦理委员会或委托的服务中心完成初步审查,再由本单位申请专家复核。
白润轩表示,《办法》构建了全链条的责任闭环。除确立了责任主体地位外,文件设计了分级分类的审查机制,对高风险活动实行专家复核,对常规项目适用简易程序,兼顾了监管的严肃性与创新效率。同时,通过建立登记备案、年度报告及违规处罚制度,确保了伦理治理不再是“纸面文章”,而是具有法律效力的实质性管控。
白润轩进一步指出,《办法》实质上为人工智能产业确立了“伦理先行”的治理逻辑,将伦理审查从软性约束转变为刚性制度。这对智能经济发展的意义在于,它通过构建标准化的风险防控体系,解决了技术狂奔带来的信任赤字与监管滞后问题。文件不仅划定了技术应用的合规底线,规避了因算法歧视、隐私滥用等伦理风险引发的产业震荡,更通过明确的规则预期,引导资本与技术向符合人类福祉、公平公正的方向配置,推动产业从单纯追求速度的“野蛮生长”转向安全可控的高质量发展轨道。
