当前位置:首页 >>极客推荐 >>查看详情

安全视域下欧盟人工智能战略的发展趋势及其启示

2025-02-23 16:01:14 作者 : 围观 :161次

1956 年的达特茅斯会议上,“人工智能之父”约翰·麦卡锡(John McCarthy)联合多 位数学、信息学、计算机学、神经学、心理学等领域专家首次提出人工智能(Artificial Intelligence,AI)之概念,自此人工智能逐渐被视为新的研究领域。2024 年 5 月,欧盟委 员会提出的《人工智能法案》(Artificial Intelligence Act,AIA)终获欧盟理事会批准, 意味着欧盟乃至世界第一部“人工智能监管与发展法”将在欧盟域内正式通行,标志着欧盟人 工智能领域监管立法与实践走在世界前列。为此,本文试图从欧盟历年人工智能相关战略、政 策、法律中梳理提炼欧盟对该新兴技术治理的关注重点及特点,分析其安全考量与动因,以期 为我国推动完善人工智能政策法律提供参考。

一、安全视域下欧盟人工智能战略的演进历程与特点呈现

人工智能作为足以颠覆人类生产生活方式和决定人类文明走向的关键科技力量之一,如何正确引导人工智能研究与应用迈向人类文明友好之路 是每个国家,尤其是掌握 AI 核心技术及具有巨大市 场的世界主要经济体,需要深思的问题。2024 年 8 月, 欧盟《人工智能法案》(Artificial Intelligence Act,AIA)正式生效,该法案是全球首部全面监管人 工智能的法规,标志着欧盟在规范人工智能应用方面 迈出重要一步。

(一)演进历程

以 2018 年“AI 技术的巨大进步”和 2024 年“AIA 的生效”两大标志事件为时点,欧盟人工智能战略演 进历程可划分为三个特色鲜明的时段。

1.2018 年以前

2018 年以前,欧盟对人工智能的发展及安全性 的关注和认识不足,欧盟的关注重心在网络及数据安 全等传统领域,但人工智能及机器人作为拥有无限可 能的新兴技术,却已逐步进入欧盟立法者视野。在 欧盟 EUR-Lex 网站中,笔者以条约(Treaties)、 法律文书(Legal Acts)、合并案文(Consolidated Texts)、筹备文件(Preparatory Documents)为文 件类型,选取 2010 年 1 月 1 日至 2017 年 12 月 31 日 标题或内容中包含“人工智能”的文件作为检索对象 进行了检索,结果有 44 份相关文件的标题或内容包 含“Artificial Intelligence”或“AI”。除去将 序号“(ai)”识别成“AI”一词和以“AI”一词作 简单举例的情况,实际针对“AI”监管的规范文件数 量更少。其中,欧洲经济和社会委员会《关于“人工 智能——人工智能对(数字)单一市场、生产、消费、 就业和社会的影响”的意见(自主意见)》和《欧洲 议会关于机器人民法规则建议的决议》较为关键。前 者作为欧盟“数字单一市场战略”实施过程性文件, 就人工智能对“数字单一市场战略”中对各领域所致 影响提出了专项意见;后者是欧洲议会对机器人技术 的民事法律适用规则提出的建议,该决议已于 2018 年修订。此外,欧盟在 2018 年以前发布的较为重要 的法律文件,如 2003 年通过的“欧洲安全战略”、 2013 年通过的《欧盟网络安全战略:公开、可靠和安全的网络空间》、2016 年通过的《NIS2 关于在欧 盟范围内实现网络和信息系统高水平共同安全措施的 指令》等,均鲜有提及针对人工智能的网络与数据安 全规则。

2.2018 年至 2024 年间

2018 年,美国 OpenAI 公司研发的 GPT-1 问世, 其展现的强大语言生成能力震惊了世界。同年 4 月, 欧盟发布《建立以人为本的人工智能信任》,自此欧 盟人工智能战略、立法与 AI 技术发展一并进入“快 车道”。笔者在 EUR-Lex 网站以相同检索方法,将检 索日期更改为 2018 年 1 月 1 日至 2024 年 5 月 31 日, 发现检索结果中有高达 1256 部相关文件的标题或内 容包含“Artificial Intelligence”或“AI”。经 计算,这一时期欧盟出台的人工智能相关文件是此 前相关文件总量的 30 倍。从时间上看,具有规划及 倡议性质的战略计划部署类文件主要集中于 2018— 2020 年,主要的监管制度建设及实践类文件则集中 于 2020—2021 年。自 2021 年欧盟委员会提出《人工 智能法案》提案后,欧盟围绕该法案进行了长达 3 年 的立法活动,这部集欧盟人工智能发展战略与安全部 署于一体的世界首部《人工智能法案》终于在 2024 年正式生效。

3.2024 年之后

2021 年 4 月,欧盟委员会提出《人工智能法 案》提案;2024 年 5 月,欧盟理事会正式批准《人 工智能法案》,历经 3 年打磨,欧盟希望通过法 案“ 复 制 下 一 个 GDPR(General Data Protection Regulation,欧盟《通用数据保护条例》)”,引领 世界各国开展关于人工智能技术立法的新浪潮。人工 智 能 委 员 会(European Artificial Intelligence Board,EAIB)将作为统筹机构,负责同各成员国主 管机关协调,促进《人工智能法案》在各成员国落实 并及时跟进反馈问题与建议。另外,欧洲人工智能办 公室(AI Office)作为欧盟委员会通信网络、内容 和技术总司 1 行政结构的一部分,以及作为《人工智 能法案》的制定和实施的主管机构,已于 2024 年 2月正式运营。然而,在欧盟将该法案作为其再次引领 全球数字安全与发展之“政治愿景”下,无论是法案 还是愿景本身均存在着不可忽视之缺陷 [1]。《人工智 能法案》能否真正引发人工智能立法浪潮,成为影响 世界各国人工智能立法的欧盟法案,仍然有待观察。

(二)特点呈现

欧盟近几年发布的人工智能战略与法律文件数量 较多,笔者挑选其中具有代表性的 6 部战略和法律文 件进行分析,文件分别是《人工智能时代:确立以人 为本的欧洲战略》(以下简称《战略》)、《人工智 能协调计划》《可信人工智能伦理指南》(以下简称 《指南》)、《建立以人为本的人工智能信任》《人 工智能白皮书:通往卓越与信任的欧洲之路》(以下 简称《白皮书》)及《人工智能法案》。基于以上文 件,对欧盟人工智能战略的特点归纳如下。

1. 在形式上从战略性文件向法律性文件转变

2018 年《战略》的副标题为“确立以人为本的 欧洲战略”,主旨为帮助欧盟发展以人为本的人工智 能技术,内容主要包括介绍全球人工智能研发投入与 发展情况、欧洲人工智能发展情况以及欧盟成员国与 其他国家技术发展现状之对比,提出人工智能技术发 展可能引发的劳动者被替代、人工智能偏见等问题。 该文件由欧洲政治战略中心发布 2 ,并成为后续欧盟 制定并推出各项人工智能战略及法律的指导性文件。 为实施《战略》,欧盟发布《人工智能协调计划》《指南》 和《建立以人为本的人工智能信任》等文件以发挥人 工智能政策间的“协同效应”。2020 年,欧盟发布《白 皮书》,该文件出台标志着欧盟对人工智能技术的发 展与监管有了较为清晰和详细的规划。此后,欧盟围 绕一系列战略部署开启了《人工智能法案》的制定。 2024 年《人工智能法案》获批通过,标志着欧盟人 工智能战略法律体系主干已建成,后续欧盟将围绕人 工智能技术应用的实际情况对《人工智能法案》进行 修补。

2. 在内容上从宏观部署向微观治理转变

《战略》前瞻性地预测人工智能技术将成为深刻改变人们生活的通用技术,且具备改变人类社会现存 模式的极大潜力,总结了欧洲人工智能发展面临的内 外部挑战,指出内部挑战在于欧盟域内的企业及公共 部门对人工智能技术的接受程度普遍较低,导致技术 性转化受阻;外部挑战在于世界各国的人工智能技术 发展速度与规模不均衡(主要是中美两国和其他国家 对比),导致技术和资金出现垄断现象。为应对内外 双重挑战,《战略》分别设定了创设欧洲人工智能投 资框架和制定全球人工智能质量标准这两方面目标。 《人工智能协调计划》作为各成员国采纳并实施《战 略》的关键一步,于 2021 年补充修订,其中明确提 出欧盟及各成员国在实现“可信人工智能”方面形成 世界领导地位的具体行动计划。作为延伸,欧盟人工 智能高级专家组发布了《指南》,该文件以基本权利 为基础,确定了人工智能技术发展与应用应遵守的伦 理原则、价值准则、可信人工智能系统的关键要求以 及符合可信要求的 AI 评估清单。此后,欧盟通过《建 立以人为本的人工智能信任》肯定了《指南》对人工 智能伦理原则和价值准则的界定,并对《指南》提出 的可信人工智能的 7 项关键要求作出归纳提炼,进而 提出要试点实施《指南》中的 AI 评估清单,以验证 其可实施性。

此外,《建立以人为本的人工智能信任》提出, 基于信任的以人为中心的人工智能准则,可以推动建 立国际人工智能伦理准则,使欧盟成为全球范围内值 得信赖的尖端人工智能的领导者,该愿景在欧盟《白 皮书》中有着更为具体的表现。《白皮书》将人工智 能描述为数据、算法和算力相结合的“技术集合”, 明确欧盟将通过“技术和工业优势”与“高质量数字 基础设施和基于欧盟基本价值的监管框架”结合的路 径,成为可信赖的人工智能和数字经济的领导者。 《人工智能法案》作为欧盟人工智能发展战略规划与 安全监管规则之集大成者,最大程度上对人工智能技 术从开发端到应用端涉及的各类问题作出阐释并加以 规制。作为欧盟在人工智能研发、应用、监管、救济 等方面所作出的研析、部署、规划、实践之经验总结,《人工智能法案》的目标在于为可信赖的人工智能制 定全面规则,该法案的出台极大增强了欧盟人工智能 治理之体系性,也引发了世界各国对此的广泛关注与 研究。

3. 在实践上通过试点验证并完善监管框架

欧洲人工智能监管框架的关键要素是创造独特 的“可信赖生态系统”[2]。欧盟委员会支持《建立以 人为本的人工智能信任》中提及的“以人为本”的宗 旨,并将该文件的试点阶段成果作为未来开展工作的 依据。欧盟试点的 AI 评估清单,以及建立的可信赖 人工智能评估准则,为后续《人工智能法案》中基于 风险分类的人工智能监管规则奠定了基础。《人工智 能法案》中基于风险分类设定监管规则,有助于提升 欧盟对人工智能的研发与应用进行监管的有效性与灵 活性。欧盟还引入金融科技领域的“监管沙盒”[3]制度, 使欧盟在人工智能研发阶段即可介入监管,并引导人 工智能技术更符合伦理准则。该制度的弱监管强度给 予了人工智能开发企业最大限度的自由,平衡了人工 智能领域的监管与创新之间的冲突 [4]。人工智能“监 管沙盒”制度和基于风险分类的监管制度共同构成《人 工智能法案》最主要的监管框架,前者强调对人工智 能研发端的监管,重风险防范,而后者强调对人工智 能应用端的监管,重在风险化解。

二、欧盟人工智能战略中的安全考量

欧盟人工智能战略及法律的演进过程内含欧盟自 身的安全考量,归结起来可以说欧盟的相关部署是以 自身利益为中心,以战略和法律为抓手,保护和发展 自身人工智能技术工业体系,同时追求战略和法律的 域外影响力,输出欧盟的价值观念。

(一)安全理念:加强人工智能的体系化治理

1. 基于“数据—算法—算力”的人工智能技术治理

数据犹如人工智能的“血液”,算法为人工智能 的“大脑”,算力构成人工智能的“肌肉”,缺失任 一环节,人工智能都难以正常运行。在数据方面,欧盟历来重视数据安全治理,在很长一段时间内,欧盟 都将人工智能安全归属于数据或网络安全范畴中,认 为通过对数据进行训练、喂养、验证、测试等,可以 极大程度约束人工智能的发展。欧盟在多部人工智能 战略与法律文件中,都将数据风险作为人工智能面临 的关键风险列示。例如,《人工智能法案》对数据及 数据治理作出专条规定,对人工智能系统提供者的数 据获取、分析、存储、过滤等行为进行制约。

在算法方面,不透明性、复杂性、不可预测性和 自主行为等问题成为欧盟格外关注的对象。在《白皮 书》中,欧盟将算法和数据并列为同等重要的人工智 能风险来源,随着人工智能技术在产品和服务中的应 用速度加快、范围变广,给用户带来的新安全威胁也 逐渐增多。然而,由于“算法黑箱”等问题在科学领 域尚未得到合理解释与规避方法,因此欧盟选择间接 方式确保人工智能系统(尤其是高风险人工智能系统) 在设计、开发、应用和使用过程中具有足够的透明度3 。

在算力方面,人工智能系统依赖的数字基础设 施也是欧盟关注的重点之一。作为人工智能系统的硬 件支撑,一方面,数字基础设施的技术水平制约着人 工智能系统的性能上限;另一方面,数字基础设施的 安全韧性又决定了人工智能系统平稳运行及可信赖程 度,二者共同影响了人工智能的市场化运行。《人工 智能法案》规定高风险人工智能应具备韧性,以防未 经授权的第三方利用系统漏洞改变其使用、输出或性 能。处理人工智能特定漏洞的技术解决方案除预防、 检测、应对和解决外,还需对试图篡改训练数据集(即 “数据投毒”)或篡改用于训练的预训练组件(即“模 型投毒”),以及导致模型出错的输入(即“对抗性 示例”“模型规避”)等攻击的防范作出预案。

2. 基于“研发—应用—使用—监管”的人工智能全场景治理

欧盟人工智能治理体系跨越研发端、应用端、使 用端、监管端等 4 个主要场景,对应 4 类不同主体。 研发端对人工智能系统提供商、进口商和分销商的义 务进行了规定,规定提供者的义务主要包括确保高风险人工智能系统质量、安全、投放合规等;进口商和 分销商则需在《人工智能法案》规定的合规要求基础 上,对引入和投放的高风险人工智能系统承担审查义 务。应用端主体主要是人工智能系统部署商,指在提 供商的特别授权下运用人工智能系统从事职业、商业 活动的自然人和法人。《人工智能法案》对部署商的 义务规定中最主要的是指派专门人员对人工智能系统 应用进行人工监督,当人工智能系统发生或可能发生 风险时,及时停止运行,并通知提供者和监督管理机 关。使用端是人工智能系统直接面向的用户,《人工 智能法案》主要以透明度、风险管理系统、技术文件、 记录留存、保密性、投诉权等方面的规定来保障和救 济使用端客户的权利。监管端包括欧盟委员会、人工 智能办公室、人工智能委员会、人工智能系统提供商 授权代表、市场监督管理机关、人工智能专家组等。 针对人工智能系统的研发、应用、使用和监管的全部 市场主体,《人工智能法案》均规定了其各自的权利 与责任,以此实现人工智能产业链的全场景安全治理。

3. 基于“政策 + 法律”逻辑构建人工智能治理体系

欧盟依靠人工智能专家组对人工智能发展的现状 和未来进行规划和研判,最终助力欧盟出台第一部人 工智能战略,其后的《指南》成为欧盟构建人工智能 治理体系的最重要基石。《白皮书》作为兼顾战略和 计划性质的综合性政策文件,一方面总结并完善了欧 盟委员会之前就人工智能发展作出的规划部署,统一 欧盟内部就人工智能发展的共识和力量;另一方面就 人工智能风险防范和市场监管法案的制定作出部署, 并指导各成员国将欧盟层面发布的政策、法律在成员 国落实。《人工智能法案》是欧盟人工智能治理体系 主干建成的关键一步,系统规定了人工智能全产业链 各方主体的权利义务和实施细则,为进一步增强欧盟 的全球影响力提供了重要帮助。欧盟人工智能治理体 系建立的整个过程反映了欧盟治理新兴社会问题的底 层逻辑,即充分发挥专家学者的“智囊团”作用,创 新引入不同领域的监管方法并进行试点验证,最终通过跨部门意见交流达成合意,推出普适性法律,实现 政策和法律良性互动,构建起有效的治理体系。

(二)政治愿景:通过“布鲁塞尔效应”再次引领全球

《人工智能法案》是人工智能治理的专项法律, 对全球人工智能安全治理有积极意义。该法案背后也 体现着欧盟的政治意图,即希望《人工智能法案》发 挥同 GDPR 类似的全球影响力,帮助欧盟在自身技术 相对劣势的情况下在技术标准制定方面掌握更多话语 权,以限制技术优势国在欧盟市场的垄断,达到扶持 欧盟域内企业并吸引外资,同时在一定程度上帮助欧 盟扩大在第三世界国家的政策影响力的目的。2023 年 11 月,世界经合组织(OECD)将人工智能的定义 更新为“一种依赖于机器的系统”,这些系统通过明 确或隐含的目标,推导出影响物理或虚拟环境的结果。 该定义的修改,一方面统一了全球对于“人工智能” 的定义,体现出与人工智能发展保持同步的承诺,另 一方面也为欧盟出台《人工智能法案》铺平道路 [5]。 当然,《人工智能法案》的全球影响力如何仍有待观察。

(三)保护主义:营造域内人工智能技术发展与企业融资有利环境

欧盟积极推进一系列人工智能发展与监管文件的 动机,主要包含对外和对内两个方面。对外,欧盟希 望通过对人工智能相关概念及原则的界定,宣扬欧盟 价值观并提升欧盟国际影响力;对内,则希望限制技 术强国对欧盟市场的垄断,营造有利于欧盟企业的发 展环境,为企业融资提供支持和便利。《白皮书》从 政策层面提出,要利用“数字欧洲计划”帮助各成员 国至少建立一个在人工智能方面具有高度专业化水平 的“数字创新中心”,并促进其与中小企业展开合作。 同时,欧洲委员会和欧洲投资基金将持续通过欧洲投 资计划为人工智能创新发展提供股权融资。相应地, 《人工智能法案》则从法律层面规定,要为登记在册 并符合规定的小微企业及初创企业提供优先进入人工 智能“监管沙盒”的机会,为其提供更多指导和培训 服务,确保其参与标准化制定过程的权利,并保持同欧盟公共机关沟通渠道的畅通;同时,为中小微企业 提供降低评估费用的优惠,减少或免除超过其能力外 的义务,并简化其履行义务的方式。除企业外,欧盟 还将支持顶尖大学和高等教育机构组建高新技术教育 基地,以吸引优秀的教授和科学家,在人工智能领域 提供全球领先的研究生课程。

三、欧盟人工智能战略对我国人工智能安全发展的启示

作为“世界一极”[6],欧盟在新兴技术领域的影 响力不容小觑。诚然,欧盟人工智能战略及法律体现 着自身价值取向,但《人工智能法案》作为世界上首 部关于人工智能治理的法案,对我国统筹人工智能发 展和安全,发挥人工智能对新质生产力发展的推动作 用,防范和化解人工智能带来的风险挑战,确保人工 智能安全、可靠、可控 [7],有借鉴意义。

(一)把握技术和伦理两大主要风险来源,保障人工智能全方位安全

人工智能技术是计算机、互联网、电子工程及软 硬件技术等诸多高新技术结合发展之产物,一方面体 现一国的科技水平,另一方面受限于各国的工业水平, 是世界各国争相占领制高点的领域。

从开发链、产业链再到应用链,人工智能技术风 险不只存在于软件方面,人工智能所需的大数据、大 算力建立于存储和计算芯片的基础之上,微单元芯片 制造能力实质影响人工智能技术的市场化应用 [8],网 络和数据风险抵御能力直接影响人工智能系统的平稳 运行。2020 年,中国信息通信研究院发布《人工智 能安全框架(2020 年)》,系统阐释和论证了人工 智能安全框架的内容和可行性,该报告为人工智能 安全治理提供了新思路,可成为未来我国制定人工 智能安全法律的参考。已于 2023 年 8 月 15 日施行 的《生成式人工智能服务管理暂行办法》成为我国 针对人工智能专门领域监管立法的第一步,预示未 来对人工智能的监管立法将加速推进,并且,技术 本身面临的风险及技术应用带来的伦理风险也将一并纳入监管视野。

在人工智能技术研发阶段的数据投喂、算法编辑 或训练等过程中,在人工智能技术应用阶段的信息选 择和爬取、机器决策的产生等过程中,以及在人工智 能被使用的整个过程中,均存在诸多伦理风险挑战。 2019 年,国家人工智能标准化总体组发布《人工智 能伦理风险分析报告》,系统阐述了人工智能技术伦 理风险的来源、评估与应对,就世界各国伦理研究状 况及成果作出总结,并基于“阿西洛马人工智能原则” 和国际电气电子工程师协会(IEEE)组织倡议的人工 智能伦理标准,初步得出我国人工智能发展过程中所 遵循的原则。2023 年,国家人工智能标准化总体组 联合信标委发布《人工智能伦理治理标准化指南(2023 版)》,提出人工智能伦理准则包含以人为本、可持 续、合作、隐私、公平、共享、外部安全、内部安全、 透明、可问责 10 个方面,同时进一步分析了人工智 能伦理风险所涉及的典型场景并提出解决方案。

(二)耦合政策和法律体系以实现人工智能高质量发展

从宏观上看,欧盟人工智能治理体系由人工智能 政策体系与法律体系构成。从微观上看,通过基于风 险而划分的监管措施及基于差异而推行的鼓励政策, 欧盟为实现其成员国之间价值观念和工业水平的平衡 可谓付出了巨大努力。就我国的情况而言,各地区的 经济、科技、数字产业发展同样存在不平衡问题,这 对我国统筹推进人工智能协调发展提出了更高要求。 人工智能的高质量发展应以理论创新和技术革新为源 动力,以“新基建”发展为重要实现形式,以引导技 术的商业化合规应用为重要保障 [9],只有充分发挥战 略政策的鼓励作用,同时落实法律法规的约束作用, 才能真正引导人工智能高质量发展。

在政策层面,国家高度重视人工智能技术发展及 其在不同领域的应用。比较具有代表性的规划性文件 有 2017年国务院发布的《新一代人工智能发展规划》、 2019 年国家新一代人工智能治理专业委员会发布的 《新一代人工智能治理原则——发展负责任的人工智能》,以及党的十九大、二十大报告等文件的相关论 述。就人工智能技术与不同领域的结合发展,国务院 及各部委也发布了诸如《关于促进人工智能和实体经 济深度融合的指导意见》《“互联网 +”人工智能三 年行动实施方案》《高等学校人工智能创新行动计划》 等文件。除政府文件外,科研事业单位、高校研究机 构、企业研究部门等就人工智能的高质量发展也形成 大量智库型文件。例如,中国信息通信研究院发布的 《全球人工智能战略与政策观察(2019)》和《人工 智能研发运营体系(MLOps)实践指南(2023)》等, 为人工智能服务提供者及主管部门开展安全评估、提 高安全水平提供了有益参考。

在法律层面,我国已出台多部法律法规对人工智 能技术健康发展提供保障。以《生成式人工智能服务 管理暂行办法》为专项立法基石,辅以《互联网信息 服务算法推荐管理规定》《互联网信息服务深度合成 管理规定》作为重要补充规定,同时依托《网络安全法》 《数据安全法》《个人信息保护法》及《科学技术进 步法》等法律,我国已构筑起一套初步的人工智能安 全发展法治保障框架。该框架覆盖了人工智能多个关 键领域,诸如数据安全、个人信息保护、算法推荐等, 还明确了在人工智能服务管理、网络安全、科技进步 等方面的具体法律要求和监管机制。然而,由于人工 智能技术持续演进和应用领域不断扩展,我国亦需不 断完善相关法律法规,以适应新的发展挑战。2024 年, 《人工智能示范法 2.0(专家建议稿)》和《中华人 民共和国人工智能法(学者建议稿)》相继发布 [10], 为我国人工智能综合立法提供了规制和框架参考。目 前,我国同世界其他主要经济体均面临人工智能“边 发展边摸索边治理”的重大挑战 [11],推出人工智能 领域综合立法的可行性探讨仍有很大空间。但无论如 何,一部专门的“人工智能发展促进和安全治理法” 都将为我国人工智能领域带来更为可靠的法律保障。

(三)探索“AI+”模式助力人工智能加速形成新质生产力

科学技术作为第一生产力,技术革新不断推动着生产力的进步;而生产力作为人类社会发展过程中最 具革命性的因素,代表着人类社会的前进方向 [12]。 人工智能是新一轮科技革命和产业变革的重要驱动力 量,加快发展新一代人工智能是事关我国能否抓住新 一轮科技革命和产业变革机遇的战略问题 [13]。

我国作为世界第一制造业大国,加之具有千年农 业积累及活跃的服务业市场,人工智能在我国有着得 天独厚的全领域适用场景。2018 年以后,上海的“AI 金融”、广东和安徽的“AI 制造”、浙江的“AI 城 市”等结合自身产业优势拓宽人工智能转化为生产力 的模式的地方探索实践,为实现人工智能技术向新质 生产力发展开创了新的现代化路径。然而,我国在促 进人工智能的生产力转化过程中仍面临诸多困难。从 深圳市人工智能行业协会 2024 年 4 月发布的《2024 人工智能发展白皮书》所列数据看,目前我国人工智 能市场中的应用层持续活跃、技术层不断革新、基础 层快速发展,然而从基础层到技术层再到应用层的整 个人工智能产业链均存在特异性的痛点难点问题[14], 围绕解决人工智能不同层面的市场问题成为实现人工 智能技术形成新质生产力之重点。除产业链外,人工 智能的多行业适用是否会造成大规模失业问题,同样 引起了中外学者的重点关注。从人类技术发展史看, 新技术的产生势必伴随着“勒德谬误”4 的再次兴起。 事实证明,在人类历经的数次工业革命中,“机器的 崛起”并没有取代人类,只是重新定义了人类的社会 面貌 [15]。然而这仅是从结果层面得出的结论,人工 智能革命带来的“社会结构性阵痛或不平等危机”[16] 仍不可避免。

(四)围绕人工智能开放与竞争营造国际合作新交点

人工智能向多个行业渗透从而引发颠覆性变革的 同时,也为全球治理带来诸多新问题。欧盟认为自身 完全有能力在人工智能治理领域发挥国际领导作用。 伴随联合国、世界经合组织、世界贸易组织以及 G20 峰会、世界经济论坛等政府间国际组织和论坛针对人 工智能的讨论愈发增多,欧盟在各项国际论坛“推销”其《人工智能法案》中的各项标准原则及评估机制的 机会也更多。

对我国来说,掌握技术标准和技术治理的话语权 之重要性,不亚于技术本身的发展。实际上正如学者 所说,安全发展与和平利用已经成为全球人工智能治 理的新秩序 [17]。2023 年 10 月,我国提出《全球人 工智能治理倡议》,该倡议不仅为我国国内人工智能 治理和涉外人工智能交流提供了方向,更是切实为全 球人工智能治理提供了中国方案。倡议内容围绕技术 发展应坚持“以人为本”理念和“智能向善”宗旨, 反对技术霸权和冷战思维,同时倡导各国相互尊重主 权,坚持平等互利,遵守公平性和非歧视性原则,建 立健全国际风险等级测试评估体系、国际法律体系、 人工智能共商共建共享体系,弥合发展中国家同发达 国家之间的智能鸿沟和治理差距,真正使人工智能技 术发展成果惠及全人类。在《全球人工智能治理倡议》 发布以前,我国还向国际社会先后发布了《中国关于 规范人工智能军事应用的立场文件》《中国关于加强 人工智能伦理治理的立场文件》,切实践行我国向世 界宣告走“和平发展”“互利共赢”[18] 道路的承诺。未来,围绕国际人工智能竞争新焦点,营造国际合作 新交点,是我国构筑更高水平对外开放的新选择和新 优势。

四、结语

新一代人工智能技术迅猛发展,人类社会正处于 历史性的变革节点上。人工智能不是一个行业,更不 是单一的产品,用战略术语来说,甚至不是一个“领 域”,它是众多行业及人类生活各方面的赋能者 [19]。 中国拥有庞大的市场规模和丰富的应用场景,为人工 智能发展提供了得天独厚的条件。近年来,我国在人 工智能领域取得显著成就,然而也要清醒认识到,我 国在人工智能基础层、技术层和应用层等方面仍存在 不足,需进一步加强研发创新,突破核心技术,提升 产业链水平。总之,人工智能作为新质生产力的代表, 正以其独特的优势和潜力引领着人类社会向更高层次 迈进,我们应紧紧抓住这一历史机遇,以开放、包容、 合作的态度,坚持发展、创新与安全并重,推动人工 智能技术安全发展,为构建人类命运共同体贡献中国 智慧和力量。

注释:

1. 通信网络、内容和技术总司是欧盟委员会的下属机构,负责制定和执行欧盟委员会关于数字经济、数字社会的研究与创新等方面的政策,通过资金、立法和政策举措,帮助确保欧洲在关键数字技术方面的领导地位和独立性。

2. 欧洲政治战略中心英文全称为“The European Political Strategy Center”,简称“EPSC”,于2014年10月成立,系欧盟委员会的内设智库机构。

3. “透明度”是指人工智能系统的开发和使用方式应允许具有适当的可追溯性和可解释性,同时让人类意识到与人工智能系统进行了交流互动,并适当告知部署者人工智能系统的能力和局限性,以及受影响者的权利。

4. “勒德谬误”或称“卢德主义”,系经济学概念,指新技术会夺走工作岗位并造成失业率攀升的错误观念;从本质上说,新技术可能会对传统岗位造成一定破坏,但对总体就业水平影响有限。

标签: