工信部原副部长王江平谈AI投毒:技术发展与治理的时差不能太久

2026年04月02日 20:25   21世纪经济报道 21财经APP   冉黎黎

21世纪经济报道记者 冉黎黎 北京报道

2026年政府工作报告首次提出‌‌,完善人工智能治理‌。伴随着人工智能的快速发展和应用,其治理也正受到多方关注。4月2日,第十四届全国政协委员、工业和信息化部原副部长王江平在2026赛迪论坛上分享对此问题的看法。

工业和信息化部原副部长王江平出席2026赛迪论坛并发言。(冉黎黎/图)

王江平表示,今年春天的“小龙虾”热潮是AI进化的一次标志性事件,为AI深度融入社会经济生活进行了一次全面的预热。

同时,王江平关注到了“3·15”GEO的数据投毒事件。他指出,所谓的GEO是生成式引擎优化技术,本来这个技术是帮助大模型快速抓取数据的关键点。但是,有人把这当成一种生意来做,把GEO技术用于广告的投送,把广告伪装成答案,把商业操纵包装成一种知识共识或者社会共识。

王江平从中注意到了三个方面的问题。

第一,AI的内生风险、应用风险和衍生风险。

内生风险源于技术本身,如模型“幻觉”、数据偏见、价值观“跑偏”及巨大的能耗瓶颈。应用风险则在各场景中具体显现,从内容生态的深度伪造、物理世界的自动驾驶安全,到人机交互的沉迷与就业冲击,风险正向宏观层面传导。衍生风险,即当AI系统能力不断增强,可能引发主权博弈、智能鸿沟扩大乃至由技术领先者单方面定义人类价值观的全球性挑战。

第二,全球AI治理深刻的困境是什么?

从国内的角度来讲,是技术迭代的指数级速度和治理体系渐进式更新,中间形成了”温差“和”时差“,存在真空。这种滞后不能太久,如果太久,真空太大,以后就会出现更多的问题。不仅仅是国内,国外也有类似情况。

从全球的角度,人工智能的治理有四大困境:一是理念上的二元对立。当前全球AI治理理念呈现出“控制”与“发展”的二元对立,这种非此即彼的思维模式难以适配AI技术本身的复杂性和多面性。二是实践上的短期主义。在激烈的全球竞争和资本驱动下,AI治理实践常常陷入“短期主义”陷阱,追求眼前的技术突破和市场优势,而忽视了技术对伦理安全、社会结构的长期性、系统性影响。三是文化上的单一视角。当前AI模型难以适应全球多元文化需求,加剧了“智能鸿沟”。四是规则上的阵营化趋势。阵营化的地缘博弈,将技术治理异化为巩固科技优势、划分势力范围的工具,使得全球协同治理步履维艰。

第三,治理AI,要为AI立规矩、定生涯、定使命。

立规矩就是要“知止”,AI行动必须在法律、规范、标准的范围内。定生涯就是确定AI解决什么问题、痛点和难点,它不是替代人类,而是解放人类。“定使命”是坚守人类的主体性,确保AI始终服务于人的根本利益和全面发展。

“从‘龙虾’热潮和GEO投毒事件,我们一定要看到AI的两面性,高效也有风险,但是我们不能因噎废食,抑制创新的活力,也不能放任自流,陷入无序的发展。”王江平表示,当务之急是加快构建前瞻性的法律框架、自主可控的产业生态、以人为本的治理哲学。“只有这样,我们才能从人工智能带来的激情和焦虑中走出来,才能够使人工智能真正成为人类不可或缺的伙伴。”

关注我们