中国社会科学网:关于人工智能与国家安全的若干思考欧亚体育
当下,世界之变、时代之变、历史之变正以前所未有的方式展开,而作为时代之变的重要内容,数字技术革命,特别是正在兴起的人工智能革命,已经成为推动世界大变局加速演进、重塑世界秩序的重要力量。
当下,世界之变、时代之变、历史之变正以前所未有的方式展开,而作为时代之变的重要内容,数字技术革命,特别是正在兴起的人工智能革命,已经成为推动世界大变局加速演进、重塑世界秩序的重要力量。2022年末,生成式人工智能ChatGPT横空出世以及人工智能技术在乌克兰危机中的初露锋芒,让人工智能治理迅速升温,成为各国和国际社会关注的焦点。正确认识人工智能对社会和国家安全的影响,客观评估其所带来的安全风险,有助于我们更从容地迈入智能时代的未来。
了解历史、尊重历史才能更好把握当下。论及人工智能技术发展历史的原点,我们不可避免地要回溯到1956年夏季在美国新罕布什尔州汉诺威小镇达特茅斯学院召开的一次研讨会,史称“达特茅斯会议”。在此次会议上,近30位在信息论、逻辑和计算理论欧亚体育、控制论、机器学习、神经网络等领域有卓越成就的学者齐聚达特茅斯学院,围绕“用机器来模拟人类学习及人类智能的其他特征”,展开了为期两个月的研究讨论,并且正式提出了“人工智能”(artificial intelligence)的概念。由此,人工智能正式登上了人类的历史舞台,科学家们就如何用机器实现“人的智能”开始了数十年的研究。经历了两次浪潮和两次寒冬,克服了符号表达、神经网络和控制论的流派路线之争,人工智能终于在数字时代算力提升、算法革新和大数据技术的助推下,在21世纪20年代迎来了第三次发展浪潮,也将人类社会推到了最为接近通用人工智能时代的历史节点。
在思考人工智能究竟会给社会和人类带来什么样的未来之前,有必要先明晰人工智能向前演进的动力和方向。从哲学的视角看,人工智能最早源于人类用器物和工具替代人力思考、解放人力的梦想。在公元前98世纪古希腊诗人荷马的长篇叙事诗《伊利亚特》中,描绘了用黄金铸成的火神赫菲斯托斯的女仆,“她们有会思考的心智,通说话语,行动自如,从不死的神祇那里,已学得做事的技能”。[1]500年后社会关注,古希腊哲学家亚里士多德后来在《政治学》中引述了这个故事,并发出了慨叹:“倘使每一无生命工具都能按照人的意志或命令而自动进行工作匠师才用不到从属,奴隶主才可放弃奴隶”。[2]如果说用器械和机器替代人类行动和工作是对模仿人类的早期探索实践,那么让机器模仿人类思考,并像人类一样具有自我学习的能力则是人工智能时代的终极目标。正如1956年时任达特茅斯学院数学系助理教授约翰麦卡锡所说“我们的目标是真正的智能,而不是所谓人工的智能。”换言之,人工智能不仅仅是工具,而是有思想的“新生物”。正是在造福人类的美好梦想的推动下,人工智能技术才能在半个多世纪的发展历程中,逆境坚守,峰回路转,将人类社会带入万物智联的人工智能时代。
如同其他革命性技术一样,人工智能技术同样面临着科林格里奇困境。1980年,英国技术哲学家大卫科林格里奇(David Collingridge)在其著作《技术的社会控制》中描述了技术控制的两难困境:一项技术如果因为担心不良后果而过早实施控制,那么技术很可能就难以爆发;反之,如果控制过晚,已经成为整个经济和社会结构的一部分,再来解决不良问题就会变得昂贵、困难和耗时间,甚至难以或不能改变。[3]然而,与其他革命性技术不同的是,人工智能技术的发展始终伴随着人类对其取代自身的终极担忧,特别是当生成式人工智能技术取得创新性突破之后。正如亨利基辛格在其最后一本著作《人工智能时代与人类未来》中所说的:“纵观历史,人类并非没有经历过技术变革。然而,从根本上改变我们这个社会的社会架构和政治架构的技术却屈指可数但人工智能有望在人类体验的所有领域带来变革。变革的核心最终将发生在哲学层面,即改变人类理解现实的方式以及我们在其中扮演的角色。”[4]
人工智能特别是生成式人工智能取得重大突破,标志着人工智能技术有望从弱人工智能实现向强人工智能的飞跃。人工智能技术所具有的通用性、智能性和不可解释性等特点在给社会带来非凡增长机遇的同时,其所带来和即将带来的安全风险也引发各方高度关注。总体上看,人工智能带来的国家安全风险主要表现在三个方面:一是系统性,二是伦理性,三是军事性。
首先,作为一项通用使能技术,随着人工智能技术向国家政治、经济和社会生活各领域的不断渗透和扩展,它所带来的安全风险将可能出现在技术应用的各个节点。就目前态势而言,网络攻击者利用人工智能技术,可以高准确度猜测、模仿、学习甚至是欺骗检测规则,挑战网络防御的核心规则;与既有攻击手段融合在网络攻击效率、网络攻击范围、网络攻击手段等方面加剧网络攻防长期存在的不对等局面;人工智能与区块链、虚拟现实等技术结合还可催生出新型有害信息,形成有针对性的传播目标,衍生有害信息传播新模式,并加大数据和用户隐私全面泄漏的风险。未来,人工智能技术带来的安全风险还将进一步从网络安全领域向政治、经济、社会等各领域扩散,带来诸如数据投毒、就业结构大幅度调整等各种冲击。由于人工智能是一个新兴的领域,安全体系和能力建设在该领域普遍还存在一定的真空和较大的延滞,对国家安全带来整体上系统性的风险,需要加以系统性应对。如美国政治风险咨询公司欧亚集团总裁、政治学者伊恩布雷默指出,生成式人工智能的迭代升级速度超乎想象,国家试图控制人工智能并使其为己所用,但远远跟不上人工智能的升级和普及速度;这一技术很有可能威胁民族国家作为世界地缘政治主体的地位,并将引发全球权力结构和平衡的根本转变。[5]
其次,人工智能技术的智能性和过程的不可解释性,还将加剧人工智能应用的伦理性风险。人工智能技术之所以被称之为“一场革命”,是因为它不仅仅是在“模拟”人类的智能,而是它可以用自己的逻辑,能够在纷繁复杂的众多可能性中识别出那些人类智能还无法理解或识别的现实和规律。例如人工智能在药物研发过程中不仅能够识别那些训练数据中抗菌分子的特质,还能识别出人类尚未概念化或加以分类的编码特性。然而,在这些“创造性”智能涌现的背后,是人工智能的功能错综复杂,表现为过程的不可解释性,人类至今仍不确定这些程序是如何实现目标的,有些结果可以验证获知真伪,但有些生成的文本结果却很可能在“一本正经地说着假话”。这样的人工智能技术在产业化应用过程中必然会带来不可控的安全风险,特别是伦理风险。牛津大学人类未来研究所所长、哲学家Nick Bostrom曾经提出一个被称为“回形针隐喻”的经典案例,他描述了一个能力强大的超级智能机器,为执行“制作尽可能多回形针”的任务,最终把地球上所有的人和物都变成了制作回形针的材料,以此揭示了“人工智能不具有人类诸如生命等价值观念”的逻辑,即:人工智能的智能性越大,造成威胁的潜在可能性就越大,伤害力也就越强。据BBC中文网报道,2023年11月,韩国一名机器人公司的检修人员被蔬菜分拣机器人压死,原因是机器人把他当成了需要处理的一盒蔬菜。[6]可见,源于人工智能“智能性”的伦理风险将成为其能否在诸多领域进一步产业化和社会化应用的重大挑战。
最后,从外部安全来看,人工智能的武器化和军事化应用已成为威胁国际和平与安全的重要变量。如同其他新兴技术,人工智能在军事领域的应用也不可避免,但人工智能的威力在于它是一种能够推动整体军事能力和文化产生根本性变化,并在不同军事领域快速形成衍生技术的通用使能技术。[7]例如,它可以通过大幅提升战场认知能力,提高无人装备自主性,改变参与战争的人力与机器资源配置等,以更加智能、高效的方式在战场上起到替代和协助的角色,并且通过大规模集结的“蜂群”效应对传统的战争形态、作战理念、装备体系等方面产生颠覆性的变革。例如,当具有纳秒级OODA循环[8]的机器人开始主导战场时,具有毫秒级OODA循环的人类无疑将成为战场进攻和防御中最薄弱的环节;智能化的武器系统不再完全依赖人的操控,而是具备了更多的决策自主性,通过目标识别和跟踪算法对拍下的战场态势如图像和视频进行自主判定,根据复杂的战场态势自主选择前进路线完成预设任务,展现出传统武器无法比拟的精确度、可靠性、速度与耐力等新特质。然而,也正是更加智能、更加强大的自主性武器正在让战场态势更加容易失控和被推卸责任,传统武装冲突中调停、斡旋等预防冲突升级的空间将会急剧缩小,且战场形势一旦失控往往会带来冲突各方都意想不到的灾难性后果。从另一个角度看,或许,核武器之后,智能威慑的时代到来了。
近段时间,世界主要国家和经济体纷纷出台有关人工智能监管的立法和治理倡议,以降低人工智能带来的安全风险。在国家层面,2023年10月,作为世界人工智能领域的头号强国,美国总统拜登签署了一项确保“人工智能安全、可靠并值得信赖”的行政命令,为涉及人工智能安全的事项制定了新标准,包括旨在保护消费者的新隐私保护措施;12月,欧盟委员会、欧洲议会和27个成员国的代表达成一项三方协议,同意对生成式人工智能工具进行监管,欧盟即将迎来全球首个全面的人工智能法案。尽管各国在人工智能监管和发展问题上的观点和目标仍有很大分歧,但在全球范围内推动人工智能监管的共同意愿正日趋明朗。2023年10月,中国提出《全球人工智能治理倡议》,呼吁通过对话与合作凝聚共识,构建开放、公正、有效的治理机制,促进人工智能技术造福于人类,推动构建人类命运共同体;11月,首届全球人工智能安全峰会在英国召开,中国等28个国家和欧盟签署《布莱切利宣言》,这也是全球第一份针对人工智能技术的国际性声明。不言而喻,在全球治理进入人工智能时代的当下,如何坚持发展和安全并重,在加强监管的同时尽可能发挥人工智能技术的赋能作用,已经成为新时代国家治理能力现代化的重要命题。
习高度关注人工智能技术发展,强调“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控”。在此,对人工智能的安全风险和影响进行客观分析并理性应对是非常必要的。首先,安全风险无处不在,绝对安全无法实现,重要的是推进相关安全能力建设,筑牢防范安全风险的盾牌。安全能力的提升不仅意味着要增加必要的安全投入,更重要的是提升安全能力的产出效率,例如针对不同类型的安全风险采取有针对性的安全风险防范措施,以安全保障发展为政策目标。其次,坚持全力推动人工智能技术创新的同时,对人工智能的产业化应用守住伦理道德底线,底线的划分应清晰明确,避免边界模糊造成安全泛化,抑制技术的创新应用,同时应明确,伦理道德风险无法完全消除,重要的是在风险中不断推动安全体系的构建和能力的提升。最后,人工智能的军事化应用很可能具备如核武器一样的威慑力,要实现智能威慑下的战略稳定,其前提条件是必须具备足够的实力,跨过“智能军事的门槛”,这也就意味着在当前阶段,人工智能治理应倡导发展优先,因为不发展才是最大的不安全。
总之,不论人工智能的发展走到何种程度,人工智能已成为引领新一轮科技革命和产业变革的颠覆性技术,也充分展现了它赋能各行各业的无限广阔的应用前景。当下,其最终的归宿仍然未定,而我们仍有时间和机会在科林格里奇困境走向极致之前寻得发展与安全的平衡之道,尽快筑牢安全屏障,拥抱智能时代的到来。
[1] 荷马:《伊利亚特》,陈中梅译,上海:上海译文出版社2016年版,第448页。
[2] 亚里士多德:《政治学》,吴寿彭译,北京:商务印书馆1965年版,第10页。
[4] 亨利基辛格、埃里克施密特、丹尼尔胡滕洛赫尔:《人工智能时代与人类未来》,胡利平、风君译,北京:中信出版集团2023年版,第15-16页。
[6] “韩国男子被机器人误当成蔬菜压死,历史上还有过这些类似事件,”澎湃新闻,2023年11月10日,
[7] 杨学军、吴朝晖等著:《人工智能重塑秩序的力量》,北京:科学出版社2023年版,第171页。
[8] 军事理论中的包以德循环也称OODA循环,基本观点是武装冲突可以看做是敌对双方互相较量谁能更快更好地完成“观察调整决策行动”的循环程序。
作者:小编