AI治理:2023年的进展、挑战与全球合作

2024年02月09日 16:06   广州金融科技
随着人工智能(AI)技术的迅猛发展,全球范围内的AI治理问题愈发引人关注。2023年,各国在AI监管方面取得了一些进展,但同时也面临着多重挑战。本文旨在回顾2023年全球AI治理的进展,比较不同经济体的监管政策差异,并对未来全球AI治理合作

综述:

随着人工智能(AI)技术的迅猛发展,全球范围内的AI治理问题愈发引人关注。2023年,各国在AI监管方面取得了一些进展,但同时也面临着多重挑战。本文旨在回顾2023年全球AI治理的进展,比较不同经济体的监管政策差异,并对未来全球AI治理合作进行展望。

2023年全球AI治理的进展

在过去的一年里,全球范围内在AI治理方面取得了一些重要进展。各国政府和企业开始意识到AI技术的潜在风险,并采取措施加强监管。

在政策制定方面,美国、欧盟、中国等主要经济体都发布了关于AI治理的重要文件。这些文件强调了AI技术的透明度、可追溯性和可解释性,数据保护和隐私安全,以及防止歧视和偏见等问题。

此外,一些国际组织也积极参与AI治理的讨论和合作。例如G20集团在2023年发布了一份关于AI治理的指导原则,强调了负责任的AI开发和应用的重要性。

不同经济体的监管政策差异

对比2023年主要国家的AI监管进展与具体政策,可以发现各国的AI治理思路仍存在明显差异,甚至在美欧发达经济体之间,差异也多过相似点。

共同点

各方在AI监管原则上主要有五个共同点:一是强调透明度、可追溯性与可解释性;二是强调数据保护、隐私与数据安全;三是强调挑战或纠正AI决策,识别并管理相关风险;四是禁止偏见或歧视,并追究人类责任;五是禁止滥用技术及非法活动,并保证人类知情权。

如美国AI行政令与欧盟AI法案草案在某些方面呈现相似之处,两者都倡导基于风险的监管原则,特别关注高风险AI系统,并详细制定了相应的监管准则。此外,针对新兴的生成式AI技术,两者均引入了对基础模型的披露或测试要求,以确保技术的透明性和可信度。

差异

美国

相对而言,美国采取了一种去中心化、针对具体行业、非强制性的监管方式。监管架构上,行政令利用现有机制的权力,指示政府各部门对各自领域的AI安全风险进行评估与制定标准,而没有设立新的法规或新的监管机构。监管方式上,行政令并没有规定具体的执行条款,且联邦层级的监管主要通过非限制性的行政指令与企业自愿承诺推动,而非立法手段推动。

欧盟

欧盟采取了一种全面、横向、基于风险的监管方式。监管架构上,欧盟AI法案采取了自上而下的双重监管结构,欧盟层级将设立人工智能办公室以监督最先进AI模型标准与测试,成员国层级的市场监督机构则负责执法。监管范围上,并未区分具体行业,而是对AI技术在具体应用场景的风险进行分级并采取相应的举措,对AI系统的提供者和使用者规定了复杂细致的要求与义务。监管严厉程度上,相比美国,欧盟更倾向使用“大棒监管”,法案中包含若干惩罚性条款。

其他国家的情况

英国:倾向于利用现有制度监管AI技术。

日本:正在起草非约束性的AI指导方针,避免采取过于约束性的手段以促进技术创新。

中国:采取较为分散、垂直、迭代的监管方式,对特定应用或表现形式进行针对性监管,侧重点在于算法和数据的使用。

未来全球AI治理合作的展望

  1. 制定全球性的AI治理标准和最佳实践:各国应共同制定一套全球性的AI治理标准和最佳实践,以促进AI技术的透明度、公正性和可持续性发展。这些标准应包括数据隐私、安全和伦理等方面的要求。

  2. 加强国际组织的作用:国际组织应发挥更加积极的作用,推动各国在AI治理方面的合作。

  3. 促进多利益相关方的参与:未来全球AI治理需要各利益相关方的参与,包括政府、企业、学术界和社会组织等。各方应共同参与制定AI治理政策和标准,以确保其可行性和有效性。

  4. 关注发展中国家的需求:在全球AI治理合作中,应关注发展中国家的需求和利益。发展中国家在AI技术的开发和应用方面相对落后,因此需要更多的支持和帮助。国际社会应共同努力,帮助发展中国家加强AI技术的培训和应用推广。

  5. 加强监管合作与协调:各国政府应加强监管合作与协调,避免出现监管碎片化的情况。各国应共同制定监管政策和标准,并加强跨国监管合作,以确保AI技术的可持续发展和广泛应用。

本文内容为原创,转载请注明来源于“广州金融科技公众号”!

关注我们

站长统计