社科网首页|客户端|官方微博|报刊投稿|邮箱 中国社会科学网
全球治理学科动态 2020年第1期
2020-03-02 14:03:00

*中国社会科学院世界经济与政治研究所全球治理研究系列(GGP)

全球治理学科动态 2020年第1期

2020/03/02

全球治理学科动态

Global Governance Panel将持续追踪全球治理学科动态

定期收集整理全球治理研究领域权威成果推送分享

      专题序言| 包括人工智能在内的科技革命和产业变革不仅会对一国国内的治理体系产生影响,并且由于人工智能技术的研发和应用是在全球平台上实现的,故此领域也已成为全球治理新疆域的一部分。本期学科动态围绕人工智能对国家间关系的影响、人工智能发展的潜在风险与契机、保障人工智能良性发展的全球治理框架与机制等议题进行了讨论。

      本文分析了人工智能对国际秩序的影响,并指出人类命运共同体视角和共同安全理念是各国在建立人工智能国际规范的过程中应坚持的出发点,基于此,作者提出了福祉、安全、共享、和平、法治、合作的六项原则。

      作者首先对国际关系研究中的人工智能进行了限定,即已知的、基于大数据和深度学习技术,以算力、算法和数据为三大要素的人工智能技术及其应用,接下来从国际格局和国际规范两方面重点分析人工智能对国际秩序的影响:

      在国际格局方面,人工智能首先将从经济上影响国家间力量对比,包括加深“数字鸿沟”从而在创造财富的同时拉大国家间差距,冲击发展中国家的人力资源优势并放大发达国家的技术和资本优势从而改变全球产业链,以及通过“马太效应”(强者恒强、弱者愈弱)形成国际社会的“阶层固化”;其次将从军事上改变国家间力量对比,包括在自动化、智能化战争条件下产生“极速战”的新战争概念和无人自动性武器集群式作战的新作战方式;最后,就国际格局的趋势而言,人工智能亦增添了新的变数,不仅国家间科技竞争的作用和激烈程度上升,非国家行为体的权力上升,国际格局还面临着“北升南降”和“南升北降”两种可能性孰高,世界未来将走向多极化还是两极化等问题。

      在国际规范方面,第一,人工智能因为从决策者、军队、民意三个层面降低战争门槛而可能使暴力选项重新回归国际关系;第二,人工智能因为增加了打击核反击力量的可能性、削弱了“相互确保摧毁”的基础而冲击全球战略稳定;第三,人工智能因为本身存在核查的技术困难而增加了建立相关国际军控机制的困难;第四,人工智能给国际人道法和战争法有关原则的适用性提出了疑问;第五,人工智能的“数字鸿沟”和“马太效应”也对国际关系民主化价值造成冲击;第六,人工智能给全球治理提出了新课题,即在管理数据资源的跨境流动时,应该采取怎样的规则与制度安排。

      本文从国际秩序切入分析人工智能如何影响国际关系,并采用将国际秩序划分为格局和规范的理论视角,为理解人工智能影响下的国际关系提供了清晰且完整的框架,也为理解人类历史进程中科技革命对国际关系的影响补充了最新案例。在文章最后,作者从人类命运共同体视角出发,提出人工智能六点原则,为将来政界和学界围绕人工智能治理规则的讨论和制定创造了基础。

      本文从人工智能全球治理中的各类行为主体出发,梳理了治理活动的现状,并在此基础上分析治理该议题的动力和阻力,最后,借鉴其他复杂的军民两用科技的治理经验,为人工智能全球治理的未来发展提出建议。

      本文首先对人工智能全球治理的相关概念进行了界定。治理目标在于最大化科技价值并最小化科技风险,后者主要指失业、军事化、责任缺失、后果不可控等伦理关切。治理手段包括(1)推进规范和价值;(2)研究技术发展可能产生的影响;(3)创建技术发展中问题的解决办法;(4)建立管理机构和法规等。

      在对各个利益攸关方的治理概览中,私人部门——也就是企业——越来越多地公开其使用人工智能技术的框架与原则。因为企业目前在人工智能的发展中扮演着前沿角色,这样的现象是可喜的;也有越来越多国家的政府部门以国家战略或倡议的形式着手应对人工智能发展中的伦理关切,并呈现出不同的路径,如欧盟提出了人工智能治理的“三根支柱”——包括迎接社会经济变革和确保欧盟具有与人工智能发展和应用相适应的伦理和法律框架;英国寻求领导该领域的规范构建;德国注重发掘人工智能科技在制造业中的应用潜力;非政府组织包括企业联盟、研究机构以及囊括了各类不同主体的其他机构,如较早投入人工智能研究的电气及电子工程师学会(IEEE),就对很多国家政府的人工智能发展方案产生了影响;在联合国系统内部,多个机构(联合国大学政策研究中心、联合国裁军事务办公室、国际电信联盟、国际劳工组织等)分别开展了人工智能相关的工作内容,利用各自专业领域的知识和经验支持该议题的有效治理。

      目前,政府与企业之间对待治理的态度差异、各国政府对施加管理可能导致本国人工智能发展落后的担心、人工智能本身具有的管理困难等因素构成了治理的阻力。另一方面,人工智能的误用很可能造成灾难性后果,面对可能的风险,主动应对要远好于被动反应,而且有效的治理能够塑造科技发展的健康激励,帮助实现长期发展,欧盟2016年通过的一般数据保护法案(GDPR)在实践过程中就支持了这一观点。作者对未来提出四点建议:(1)从人工智能的特定问题着手而非寻求一个面面俱到的框架;(2)建立人工智能实践的核查工具;(3)建立人工智能治理的有效激励;(4)借鉴此前军民两用科技的治理机制。

      本文的梳理和探讨建立在细致充足的资料基础上,为我们展示了人工智能治理的全球图景。虽然目前的治理更准确地说是“全球范围内的治理”而非真正意义上的“全球治理”,但治理活动对科技发展的影响正愈见清晰,治理的共识和凝聚力也正在形成。

      本篇访谈探讨了人工智能治理中的风险与挑战,以及政府和私营部门在建立全面的人工智能治理框架中将扮演的角色。受访者认为,人工智能因其能帮助人类自动化、改进、提高预测和决策能力,使其可能成为深刻改变人类经济、社会与军事的技术。在人工智能治理过程中,需要兼顾人工智能技术前景及其带来的影响,从而探索出治理的合作可能性、价值与制度机制。

      本文谈到人工智能带来的风险涉及系统性风险、知识产权风险和战略风险。关于系统性风险,作者认为,当一个系统在相关领域获得与人类相当甚至超越人类的能力时,会出现明显的风险。即使仅是接近人类的表现,也可以使人工智能在一系列任务中代替人类,仅此一项就可能导致大规模的劳动力失业、从根本上加剧不平等;个人隐私受到侵蚀;核不稳定风险增加;全球经济重组和集中,并破坏军事攻防平衡,从而增加军事冲突的风险。

      关于知识产权风险,作者表示,就包括人工智能在内的电子技术而言,其面临的盗版和非法传播风险大。军方在限制技术扩散上有更丰富的经验,但一般私营部门的发展可能会增加这种风险。但更高级的人工智能技术的扩散难度会增加,因为其需要更多的计算机硬件或大型结构化数据集来进行训练和实施。

      关于战略风险,作者认为,先进的人工智能可以提高各方的利益攸关度。如果不同的国家相信它们可以分享人工智能创造的巨额财富,它们可能会被激励进行更多的合作。但如果它们不这么做,先进人工智能则会被视为一种战略资产,这可能会推动不稳定的军备竞赛或民族主义。随着一些利润极高的人工智能公司占领市场,新的依赖形式可能就此产生,因为许多国家将被迫与中国或美国这类提供大部分人工智能服务的国家谈判。

      在构建人工智能治理框架方面,作者指出了多边组织、政府和企业参与的重要性。谈及多边组织与谈判对人工智能治理的重要性时,作者表示,多边组织可以通过提供联合论坛来制定、协调和传播参与者之间的合作规范,从而在人工智能治理中发挥关键作用。同时,非严格多边的其它倡议也能以对话形式参与讨论人工智能的治理与伦理,而参与者涉及不同国家、多个行业的营利和非营利性机构。此外,企业需要参与到人工智能治理中来,而且在形成人工智能治理框架的基础方面,企业可能比政府处于更有利的地位。政府因其自身效率问题,很难及时跟进人工智能技术的发展。同时,作者认为,国家不再是治理能力的唯一来源,尤其是在人工智能等领域。相反,私营部门在这些领域发挥着越来越大的作用。这里的关键是在公私利益之间取得平衡,并使企业发展动力与追求人类共同利益相一致。

      本文的主要贡献在于较全面的讨论了人工智能发展带来的各类风险,以及初步提出了人工智能治理框架构建的方向和参与者。为进一步研究人工智能治理提供了一定的研究思路。

      本文探讨了在人工智能进一步发展并影响社会生活和公共决策的情况下, 应以何种框架规范人工智能治理,使之与人权保护不相违背。作者主张,现有的国际人权框架——包括国际人权公约系列文件和《联合国工商企业与人权指导原则》——有足够的合法性与适用性为人工智能治理提供现成框架基础。在这一框架下,人类尊严和问责制等基本原则将受到尊重。

      作者指出,要理解现有人权框架将如何应对人工智能对人类带来的影响,首先需要关注人工智能的四个潜在危害与相关社会关切。一是随着人工智能的发展,机器是否会控制社会。二是如何衡量人工智能的各种应用是否合乎伦理;这应该由谁、基于什么基础做出相关的判断。三是如何看待人工智能带来的无意的负面影响。四是如何看待人工智能对人的主体性和能动性的考验。

      为回应上述公众关切,许多利益相关方开始讨论相应的新伦理框架以削弱人工智能的潜在风险,确保其有益应用。但这些新框架并不能包含人工智能对人类带来的全部风险或治理挑战,也无法在全球利益相关方中形成广泛的共识。在此情况下,作者主张以现有国际人权框架作为未来人工智能治理的框架基础,其原因有四。其一,人权框架以人的尊严为出发点,主张人作为治理和社会的中心。这是确保人工智能将以支持人类和人类社会的方式发展,而不是以可能伤害人类的方式发展的关键第一步。其二,这一框架下的国际人权法律体系通过其广泛的实质性和程序性权利,直接反映了社会对人工智能最紧迫的关切。如《世界人权宣言》中的相关条款已作出了关于非歧视、生命权、侵权补救、接受与传递信息等一些列全面的规范,而这些规范可以引申用于人工智能治理领域。其三,人权框架确立了政府和私营部门在保护和尊重人权以及纠正侵犯人权行为方面的作用和责任。这为人工智能治理以及为评估人工智能做出的决策对人类和社会的影响提供了一个相当全面的框架。其四,现有的框架虽然在世界范围内被截然不同地解释与实施,但其仍有一定程度上的政治认同和国际法下的地位。人权框架建立在几十年来的全球共识之上,是全球各利益相关方谈判的结果。因此,这一框架在世界范围内具有一定的适用性与合法性。

      本文的主要贡献在于正式提出以现有的国际人权框架作为人工智能治理的框架基础。这一框架基础可以更为全面地应对人工智能的发展对人类与社会的影响与挑战,同时其适用性与合法性可以更好地推动世界范围内的利益相关方接受人工智能治理框架,从而更好地确保人工智能服务于人类利益。

      本文指出人工智能将从正反两个方面深刻影响中美关系的发展:一方面,中美之间围绕人工智能的竞争有可能会加剧双方的战略互疑、削弱双方的战略稳定、改变双方的权力动态;另一方面,人工智能的快速发展也蕴含巨大潜力,为中美两国开创新的合作空间。

      首先,人工智能将成为中美战略竞争的新高地。第一,或将引发两国围绕人工智能的军备竞赛。美国国防部建立了联合中心推进人工智能的军事应用,中国也在《新一代人工智能发展规划》中强调人工智能的军民转化。相比于传统军事科技,人工智能更为模糊的两用属性意味着即使达成军控协议,其核查也存在极大困难,因此未来管控军备竞赛面对挑战;第二,改变两国的权力动态。革命性科技往往推动国际格局与秩序的变迁,在此轮竞争中,美国自然是要占据科技发展的主导位置,中国则将其视作追赶良机。目前,两国已经各自掌握有优势领域,并正在形成胶着态势。

      其次,人工智能将成为中美冲突的新来源。第一,侵蚀两国战略互信。除安全困境和文化差异外,人工智能等高科技领域将成为两国战略互疑的新来源。美国精英层内部普遍将中国视作意图挑战美国国际领导地位的修正国家,并主张加严对中国企业的审查;第二,削弱两国的战略稳定。这包括降低了二次打击的可信性、创造了低成本新式武器的选项、增加了“先发制人”策略的吸引力,从而改变了传统的大国战略威慑和攻守平衡,以及通过降低伤亡预期减轻国内民众对战争的抵制情绪、再加上由技术缺陷引致的互相认知失误,从而使战争更易爆发和升级。

最后,人工智能将成为中美合作的新领域。第一,人工智能技术本身要求国际合作具有开放性;第二,人工智能技术将为跨国科技企业创造更多权力,后者将更有力地影响国内进程和国际关系,拓宽加深中美经贸联系与相互依存;第三,面对人工智能发展过程中伴随的问题,中美需要合作应对、推进治理。

      本文系统分析了人工智能对中美关系正在或将要发生的影响,也从双边和多边提出了两国在人工智能相关议题避免冲突、加强合作的政策建议。为探知和理解人工智能时代的中美关系与全球治理提供了方向。