导语:人工智能的发展已与国家发展、社会治理、国际竞争等息息相关,其带来的机遇和风险共存。全球都在思考如何整合利益相关方,秉承互利互惠原则推进共同治理,实现人工智能风险最小化、效益最大化。
太和智库一直在关注人工智能的全球治理问题,于2020年向G20提交了人工智能全球治理建议方案,并阐述了在G20框架下协同治理的理念、方式和机制。对此,人民日报海外网对该方案牵头人、太和智库欧洲中心主任托斯登·耶里尼克(Thorsten Jelinek)先生进行了专访。
托斯登·耶里尼克:从正面作用看,作为创新、增长和竞争力的新源泉,人工智能可提高几乎所有行业和部门的生产力和效率,因而广受赞誉。智能化也有望解决一些最紧迫的全球挑战,实现可持续发展目标。人工智能创新的潜在经济和社会效益可能是巨大的。对大多数人来说,人工智能的兴起已经提高了日常便利性。
从负面作用看,人工智能的快速发展也引发了较多忧虑,许多专家告诫,人工智能可能为世界带来前所未有的安全和隐私风险,加剧社会、经济、政治和国际关系失衡。历史证明,人类颠覆性技术的应用大多利大于弊,但这往往以一段时间内的错误和事故为代价,使得民众或政府要求进一步改进和规范。由于人工智能不会只是人类的代理,更可能发展成为自主决策的独立代理人本身,我们不能基于历史经验安枕无忧。
技术并不能脱离人类行为单独存在,其本质上是人类行为的结果。未来几十年,主要的风险并不是人工智能本身会造成的直接伤害和长期失衡,而是对现有人际关系、社会惯例和人类自身目标的冲击甚至瓦解。因此如何应用人工智能才是主要的决定性因素。人类历史正经历螺旋下行,变得更加碎片化和不可持续,而人工智能很可能加速人类现有的发展轨迹,所引致的风险则可能愈发增加、恶化。
托斯登·耶里尼克:我认为,人工智能的风险可以分为两大类:
一、在特定领域遭遇的直接威胁
人工智能技术或将极大改变甚至加剧网络安全威胁。当前,传统的网络安全漏洞和网络犯罪事件急剧增加,涉及数字和物理系统的破坏、信息盗取和网络间谍活动。人工智能的恶意使用不仅会扩大现有网络安全威胁,还会创造全新的威胁形态,实施更有针对性的攻击和犯罪,预防和处理将更加复杂困难,这也引起了多国安全、军事及重大基础设施部门的重点关注。若无强有力的国际协调和责任承诺,人工智能安全问题可能会进一步瓦解现有网络治理机制和机构,使之呈碎片化态势。
二、较长时期内出现的结构性风险
人工智能技术或将固化并加剧结构性失衡。经济方面,人工智能将提高就业门槛,富裕国家有能力为无法重新获得技能的人提供普遍的基本收入,而中低收入国家将无法做到这一点,并有可能被困在他们的发展阶段。社会方面,少数人享受数字化升级的特权,容易导致数字贪污和人工智能重商主义;被时代“抛弃”的人可能会越来越多,其尊严、隐私和价值的日益缺失将影响公民身心健康和社会凝聚力,导致社会动荡增加,民粹主义扩大。政治方面,人工智能通过限制自治空间,加大了国家、经济和社会之间力量失衡的结构性风险,容易出现两极化,即极权主义或“多数人的暴政”,并威胁到现代国家和政府的支柱——官僚制、法治和问责制;各国对人工智能领导地位的激烈竞争可能会破坏现有国际关系,技术主权或转变为技术民族主义。此外,高度应用人工智能技术的自主武器,如网络病毒及致命性自主武器等面临扩散危险,这将增加持续的不对称冲突。如果没有协调和干预,结构性风险会更难预测,其后果将更难化解,影响范围也更广泛。
托斯登·耶里尼克:没有任何一个国家或利益相关方能仅凭自身力量来持续、有效应对以上威胁和风险。建立人工智能治理的全球协调机制,已成为一项亟待解决的全球议题。
首先,人工智能是一个多技术交叉融合的领域,在不同的应用、行业和地域中存在不同的风险,而且这些技术正在迅速发展并推广应用,最终将渗透到人类生活的方方面面。现有法规和传统监管方法难以应对这种复杂局面,也难以跟上人工智能的发展速度。
其次,人工智能治理要求对人工智能伦理、规范、政策、行业标准、实验室实践和工程解决方案等多方面进行协调,同时,全球人工智能领导权竞争所带来的负面影响也不容忽视。竞争促进创新,但也会削弱责任意识,导致人工智能资源的集中和权力的失衡。
最后,文化差异、政治利益斗争和政府体制差异会造成不同国家的人工智能治理规范框架和法规之间的冲突,从而加剧国家间的紧张关系,进一步破坏亟待实现的国际合作。
托斯登·耶里尼克:太和智库呼吁各国协作成立人工智能治理协调委员会(Coordinating Committee for the Governance of Artificial Intelligence,简称“CCGAI”),对G20进行局部变革,以使CCGAI成为全球人工智能的元治理主体。
CCGAI并非一个拥有直接执法权和完整的国际网络治理机制复合体的单一法律机构。考虑到G20不仅是一个非正式的、以危机应对为导向的机构,它还在全球统筹方面持续发挥促进合作与协调的作用,CCGAI必须在这两种作用之间找到平衡点。建立CCGAI要求G20至少要根据以下四项机制特征进行局部改革,即协调、问责、前瞻和磋商。在这些特征的作用下,CCGAI将会成为“元治理主体”(Metagovernor):
一、将全面协调作为一项“元治理”任务。其目的是建立CCGAI与G20机制内相关行为体(包括委员会、理事会、特别工作组和B20、C20、T20等团体)之间的联系,并形成相应的制度。其总体任务为协调、整合各项职权并下放职责和决策权。同样重要的是,这种强大的协调职能还需G20与更多的人工智能和网络治理机制复合体中的主要行为体之间正式建立多层级的稳定关联。在此过程中,CCGAI的目标并非与其他机构和机制竞争,而是促进合作,以实现一体化和一致性,并推进“负责任”的全球人工智能治理进程。此协调职能可用于国际协定和条约的制定与磋商,有助于G20发展成为一个活跃的行为体。
二、通过问责程序获得合法性与信任。成员国、职权、层级结构和网络治理之间的协调和决策过程有赖于透明、基于规则、合理且可制裁的程序。规范化具有重要意义,透明度也有助于提高CCGAI的有效性。协调工作还必须保持一定的灵活性,为非正式性处理方式留出空间。在当前碎片化发展背景下,共识并非常态,技术的不确定性问题也不时出现,因此CCGAI还必须遵循规范的程序来包容、管理分歧与冲突。CCGAI应当求同存异,为针对分歧的讨论提供便利,以期形成共识。
三、利用战略前瞻提高协调和决策的有效性。战略前瞻要求对人工智能及相关政策的发展与应用进行监测,加快政策响应,并就不断变化的人工智能威胁和风险提出预警及国际防治策略。在此过程中,CCGAI的主要作用并非推出新的治理工具,而是共享监督成果,并推动落实已颁布或拟议的政策。CCGAI将分析如何整合现有治理和监管工具,发现其共同点,以及有待解决的缺口和政策冲突。此外,还应根据以下六项标准来衡量CCGAI自身的领导力与改进人工智能和网络治理机制复合体的能力。这六项标准分别为:一致性、问责制、有效性、确定性、可持续性和认知质量。这种战略前瞻性信息应纳入现有的G20数字政策知识库中。
四、建立公共磋商机制,提高治理协调的透明度、有效性、合法性和信任度。G20需要建立正式的磋商机制,将利益相关方,特别是公民社会团体和非G20国家纳入秘书处,推动官方政策的讨论。公共磋商机制为提出关切、提供反馈和解决权力不对称等提供平台,也能够满足小国和公共服务不足的组织的需求。公共磋商机制应当推动实现包容性协调进程、促进自组织和治理网络发展,并帮助各方适应多层次、多学科和多中心的治理环境。G20须籍此提供公平机会,而非优惠待遇。公共磋商是真正意义上的多方利益相关方投入机制,有助于G20保持开放性、灵活性,并时刻保持自我审视与反思。
托斯登·耶里尼克:国际社会最初应对新兴技术的方式是建立非一体化或局部一体化的组织,并制定国家和区域层面的规范和监管方法。这种分散、自发或多中心的治理方案在初期表现出明显优势,能有效识别广泛的不确定性,发现政策问题并因地制宜制定解决方案。例如,在区域层面上,欧盟委员会在遵循并参考现行欧盟规范框架和法律的基础上,成功地整合了各成员国的应对措施,且制定了人工智能与数据的预先监管战略。这种区域一体化有助于规避人工智能与数据风险并提高竞争力。然而,这种区域或国家间各自为战,围绕人工智能进行的激烈竞争,又极大地强化了人工智能治理“回归单一民族国家”的态势。以自我保护为主的“数字主权”需求,可能会破坏多边主义并转变为技术民族主义,进而可能导致国际治理机制复合体功能失调,反过来破坏地方和区域治理,削弱其作用或有效性。因此,只有在全球范围内进行全面协调,才能有效应对、化解未来的威胁与失衡状态。
人们普遍认为,G20自成立以来能够持续发展,原因在于它是一个非正式的审慎国际论坛组织,负责组织工作的秘书处采用轮换制,为国家和非国家行为体之间建立联系提供了便利。2019年,G20根据经济合作与发展组织(OECD)的人工智能原则,就“以人为本的人工智能,促进创新和投资”形成了一套规范。G20应在此基础上进一步深化,并落实拟议的协调机制。G20可借此机会积极主动地减少和化解人工智能带来的威胁和风险,同时通过实现一体化、一致性和包容性的协调机制来应对当今的碎片化发展问题。
托斯登·耶里尼克:目前,人工智能治理全球合作的前景并不乐观,虽然欧、美和中国已意识到其带来的威胁和风险,但在全球协调机制的构建上仍分歧严重,中国将世界视为“命运共同体”,而美国则强调大国间的竞争,欧洲虽不完全同意特朗普的做法,但对中国日益增长的主导地位也开始担忧,给中国贴上“战略对手”的标签。可见,人工智能并非改变历史的主因,而是一种很可能加剧历史“症状”的推力。人类不能希冀人工智能使人类变好向善,而应首先改变自身思想,避免人工智能发展的意识形态化,令该技术成为获得对竞争对手优势的工具;防止该技术被人恶意使用,让一部分人剥夺和攫取大多数人的权利和价值。
在人工智能的发展过程中,每个利益相关者都面临着不同的责任,没有一方能够单独应对人工智能的全部风险。因此,全球治理的合作必要且紧迫,关键在于人类对历史和文明发展的正确认知。如果说人类历史正处“下行通道”,那么人工智能就不应该模仿人类价值观和人脑,而是要从中学习和改进,从而扭转这种碎片化态势,最终成为改善人与人、人与自然关系的强大工具。