2025-03-14 19:36:55 作者 : 周伟 周于琬 围观 :76次
网络舆情决策是政府针对社会公众围绕现实社 会中具有一定影响力的“焦点”事件或“热点”问 题,对于社会公众通过网络空间表达和传递的各种 不同情绪、意见和诉求等的综合表现,为回应社会 公众诉求、消解社会公众疑虑、防止虚假信息蔓延 和维护社会安全稳定所作出的决策。随着人类社会 的网络化、数字化、智能化转型步伐的加快和类 ChatGPT 人工智能技术在网络空间的渗透应用,人 们在网络空间获取信息资源、表达观点情绪和展开 互动交流变得更加畅通、快捷和高效 [4]。网络空间 成为一个集信息交流、情感动员、价值传递、认知 塑造、行为激发等社会心理功能的综合性社会空间, 也成为各类社会风险的策源地、传感器和放大器, 社会风险向网络空间汇集、影响公众情绪和认知的 趋势显著增强 [5],造成网络舆情不断涌现、复合弥 散传播、循环反转爆发 [6],网络舆情急剧扩散与风 险放大的可能性增加,考验着政府网络舆情风险防 范与危机治理能力。及时、精准、科学的网络舆情 决策,就成为政府有效防范网络舆情风险与化解网 络舆情危机,提升政府网络舆情回应能力和治理能 力的关键。
科学技术是决策变革创新的社会背景和技术工 具,类 ChatGPT 人工智能技术必将应用于政府网络 舆情决策中并对决策过程产生影响。然而,目前关 于类 ChatGPT 人工智能技术与政策关联的研究,大 多是将其作为政策规制的一种工具和手段 [7],而 将类 ChatGPT 人工智能技术聚焦到决策过程分析、 特别是网络舆情决策过程分析的研究相对较少。对 于类 ChatGPT 人工智能技术嵌入网络舆情决策, 我们需要思考以下几个问题:它具有哪些价值?面 临哪些风险?如何防范风险?对这些问题必须加以 高度关注和进行理性思考,“不断提升人工智能 技术的安全性、可靠性、可控性、公平性”[8]。类 ChatGPT 人工智能技术与网络舆情决策过程的有机 融合,不仅意味着我们应正确认识其嵌入网络舆情决策的价值,而且更应该剖析其嵌入网络舆情决策 的风险并积极寻求风险防范措施,进而推动网络舆 情决策朝着科学化和智能化的方向发展。
一、类 ChatGPT 人工智能技术嵌入网络舆情决策的价值分析
随着社会理性化的不断增进和科学技术的快速 发展,公共决策的过程也日益科学化和智能化。类 ChatGPT 人工智能技术与网络舆情决策的结合,为 网络舆情决策问题的确认、信息的完善、效率的提 升和预测的增强等,提供了强有力的技术支撑和技 术优化途径,成为规避网络舆情决策失灵的工具。
(一)有助于确认网络舆情决策问题
网络舆情政策问题的确认是网络舆情决策的起 点,如果网络舆情政策制定者能够及时认清和确定 所面临的网络舆情决策问题,并及时制定政策、采 取针对性措施加以引导并解决,就能够有效防范网 络舆情风险和化解网络舆情危机。然而,在“互联 网 +”时代,任何具有一定影响力的“焦点”事件或“热 点”问题,都会在网络虚拟空间引发网民的激烈争 论和讨论,不仅不同网民对同一事件或问题具有不 同的诉求,而且随着网络舆情“焦点”事件的演 进或“热点”问题的发酵,同一网民对同一事件 或问题前后也可能持有不同的观点和具有不同的 诉求。网民诉求的潜在性、多样性、动态性和复 杂性,给政府网络舆情决策带来了极大的挑战。 如何有效地识别与整合网民的合理诉求,出台针 对性的网络舆情政策予以回应,是政府网络舆情 决策的重点和难点。
类 ChatGPT 时代的到来及其技术在网络舆情决 策中的应用,有助于政府在复杂多变且相互牵连的 网络舆情场景中精准、快速地识别与有效归纳整合 网民的诉求。一方面,类 ChatGPT 这种先进的强人 工智能技术拥有超强的记忆能力和推理能力,政府 舆情部门借助 ChatGPT 这一功能优势,不仅能够实 现对网民诉求的全流程、全方位、跟踪式记录,而且能够通过数据分析、掌握信息节点的度数、介数 和接近度 [9],把握网民对“焦点”事件或“热点” 问题的看法,智能收集、分析、归纳整理网民的意 愿和诉求,并且对未来可能出现的诉求趋势作出预 判,为决策者提供“最大公约数”的网民诉求,有 利于快速确认网络舆情问题所在。另一方面,类 ChatGPT具有极强的机器学习技术和语言处理技术, 能够捕捉网络空间人类难以发现的微妙信息,深入 分析极其复杂的语言结构,大量隐蔽性信息得以深 度挖掘、大量非结构化数据得以精度分析,这能够 辅助政府决策部门全面收集民意和精准识别民意, 为政府识别网络舆情的成因提供全面可靠信息。类 ChatGPT 技术对网民诉求的有效识别与整合,有助 于政府决策部门敏捷发现网络舆情问题所在,及时 作出网络舆情决策予以应对。
(二)有助于完善网络舆情决策信息
信息与数据是快速正确作出网络舆情决策的重 要依据。获取全面、真实、有效的信息与数据,及时、 科学地对信息与数据进行加工处理,为网络舆情决 策提供完善的信息与数据支撑,是做好网络舆情决 策的根本保证。网络舆情发生后,各类信息庞杂、 真假难辨,如何从海量的信息与数据中筛选出真实 可靠的;如何将多类型、半结构化和非结构化混杂 的信息与数据转化为结构化的;如何快速地收集 整理、加工处理,这些问题都对政府网络舆情信 息与数据的采集、加工和处理提出了挑战,考验 着政府网络舆情决策信息与数据的采集收集和加 工处理能力。
类 ChatGPT 人工智能技术的迭代革新与创新应 用,有助于政府迅速收集与加工处理网络舆情信息 与数据。当前,ChatGPT 已超越了所有搜索引擎, 具有突破时空、形式、领域等诸多限制进行信息收 集和数据抓取的能力,不仅能够编辑万亿级参数, 而且处理参数的能力几何式增加,这有助于采集与 处理网络舆情中海量庞杂的信息与数据。ChatGPT 还通过机器学习、生成算法、预训练模型等,对网络舆情决策所涉及的文本、图片、音频、视频等多 类型的信息与数据,根据决策需要进行信息与数据 类型的灵活转换和及时输出,而且具备极强的自然 语言学习能力和强大的知识迁移能力,机器会通过 深度学习对网络舆情决策信息与数据进行自主化处 理,从而更好地满足决策需要。ChatGPT 强大的信 息采集储存、加工处理、转化输出能力,几乎能对 所有的网络舆情信息进行搜索采集,并对不同类型 的网络舆情信息进行综合处理,其搜集和处理能力 远超人类,能够为网络舆情决策提供更加完整和可 靠的信息。
(三)有助于提升网络舆情决策效率
决策时效是指决策的时间效力。任何决策方案 都具有一定的时间要求和限制,只有在某一时刻、 某一时间、某一期限内作出的决策才是有效的。决 策时效要求决策者在发现决策问题后,及时收集相 关信息、综合分析研判和确定决策方案。如果在决 策时议而不决、决而不断,不仅会使决策的效益降低, 甚至会因问题的性质发生根本变化使得决策无效。 “互联网 +”时代,网络舆情传播主体的多元性与 分散性、传播渠道的多样性与畅通性、传播方式的 实时性与互动性、传播内容的真实性与虚假性等 [10], 致使网络舆情迅速蔓延扩散和风险无限放大。防止 网络舆情蔓延扩散和风险发生,就要及时制定网络 舆情决策和应对措施。但信息收集储存与加工处理 技术、行政管理条块分割、部门行政藩篱以及人力 资源等因素,在一定程度上影响了网络舆情决策的 时效。
类 ChatGPT 人工智能技术与网络舆情决策的结 合,有助于解决上述问题,提升网络舆情决策的效 率。首先,类 ChatGPT 人工智能拥有强大的信息采 集储存和数据加工处理能力,不仅能够对网络舆情 所涉及的文字、图片、音频、视频等各种信息进行 较为全面的采集储存,而且能够依据决策需要对图 片、音频、视频等半结构化和非结构化的数据进行 加工处理,提高了网络舆情决策信息采集储存和数据加工处理效率。其次,类 ChatGPT 人工智能的数 据共享平台和语言学习能力,不仅可以打破政府部 门间的网络舆情“信息孤岛”,破解政府部门间的 自成体系与相互隔绝的状况,促进网络舆情信息在 政府内部纵横向的传递与交流,而且其超强的自然 语言学习能力,极大地消解了不同单位间数据交换 与整合标准不同所带来的“数字鸿沟”问题,提高 了政府内部网络舆情决策信息互通和数据共享效率。 最后,类 ChatGPT 人工智能的技术机制塑造了人机 互动的新型关系,人工智能不再是单纯的决策工具, 而成为决策过程中智能化的决策主体,人与机器形 成“一种相互协作、彼此增强的模式”[11],人机关 系从人与工具之间的被动式反馈转向即时主动式交 互,机器承担了人类决策中的诸多事项,可以辅助 用户快速作出决策,进一步提升了网络舆情决策的 时效性和科学性。
(四)有助于增强网络舆情决策预测
预测是指人们利用已经掌握的知识和手段,预 先判断事物未来发展状况的一种活动。人类面临着 各种潜在的社会风险,有效预测风险就成为有效防 范风险的基本要求。网络舆情决策预测是指政府决 策部门根据网络舆情过去发展演变的客观过程和某 些规律性,运用各种科学的决策技术和方法,对网 络舆情未来可能出现的趋势进行科学推测,以便把 握网络舆情发展变化趋势,及时调整决策,并选 择相应的政策方案以达到消解网络舆情风险的最 终目标。网络舆情常常具有循环反转爆发的特征, 这就要求网络舆情决策不仅要具有“灭火”功能, 而且还要具有“防火”功能。但传统的网络舆情 决策由于受到决策技术和方法的限制,致使其预 测功能不足。
类 ChatGPT 人工智能是一个具有预测建模功能 的先进网络技术平台,能够通过大量数据、算法推 荐和模型推演预测事物未来发展变化趋势。“在小 数据的世界中,相关关系也是有用的,但在大数据 的背景下,相关关系大放异彩。”[12] 情感认知与行为之间具有千丝万缕的关联,大数据赋予了这种联 系的可预测性。大数据的算法推荐和模型推演, 既能够预测客体的情感认知,又能够在回应客体 情感认知的过程中实现主体对客体情感和行为的 引导 [13]。类 ChatGPT 人工智能技术可以通过对网络 舆情的文本挖掘、情感分析、议题建模推演等,从 海量的网络舆情数据中提取关键信息,识别网民的 情感倾向和主要诉求,并结合深度学习技术,通过 训练深层神经网络提取海量且复杂的舆情信息中的 “关键词”预测网络舆情的发展趋势。类 ChatGPT 人工智能通过跨模态深度学习模型形成了强大的自 我学习机制,不仅能够在庞大复杂的网络舆情信息 中挑选自己需要的信息进行自我学习和反复训练, 从而增强算法推荐的可预测性,而且能够将主客体 置于既定的学习模型中,形成人与技术互动的“请 求—回应”关系 [14],进一步优化算法和模型,从而 增强预测的准确性。
二、类 ChatGPT 人工智能技术嵌入网络舆情决策的潜在风险
类 ChatGPT 人工智能技术在网络舆情决策中的 应用,优化了网络舆情决策工具,提升了网络舆情 决策效率,也为网络舆情决策智能化带来机遇。但 同任何科学技术一样,类 ChatGPT 人工智能技术与 网络舆情决策的融合,也给政府网络舆情决策带来 诸多挑战与风险,可能造成网络舆情决策的失灵。
(一)数据失真导致网络舆情决策的失误
高质量的网络舆情信息与数据是确保网络舆情 决策准确性的前提和基础。海量数据是类 ChatGPT 人工智能介入网络舆情决策的基础资料,也是网络 舆情决策智能化过程中最为关键的资源,数据数 量与质量直接影响网络舆情决策的准确性。尽管 类 ChatGPT 人工智能技术对网络舆情海量多源的信 息与数据,在采集储存、加工处理、转换输出等方 面具有优势,但却无法对网络舆情决策所提供信息 与数据的真实性负责。首先,类 ChatGPT 人工智能技术在进行网络舆情决策信息与数据采集时,只 是对网络舆情信息与数据的归类压缩和重新包装, 不会真正地理解信息和刻意筛选数据,也不能对信 息与数据来源的真实性进行判断,因而无法确保所 采集的网络舆情信息与数据的真实性。其次,类 ChatGPT 人工智能技术在网络舆情决策信息与数据 分析中,可能由于预训练语料库信息与数据的包容 性和多样性不足,以及隐蔽性地采用具有偏见的模 型对信息与数据进行编辑,在网络舆情信息与数据 的加工处理中放大偏见效应并形成恶性循环。最后, 类 ChatGPT 人工智能技术在网络舆情决策信息与数 据输出时,只是按照用户需求对海量网络舆情信息 筛选后给出单一且标准化的内容,对于生成内容本 身的真实性和准确性无法判断,可能导致产生大量 虚假网络舆情信息,甚至被利用生成恶意内容。显 而易见,类 ChatGPT 人工智能技术在网络舆情决策 信息与数据的收集、分析和输出时,都存在着数据 失真的可能性。所以,基于数据、算法和模型的网 络舆情决策结果的准确性和可靠性需要验证。
(二)算法偏见造成网络舆情决策的偏狭
算法是基于特定计算模式或特定运算程序将 输入的数据转化为可预期结果的一套指令或编码 程序 [15]。决策由人类决策转向算法决策的一个重要 缘由是减少偏见和歧视的普遍性,然而,基于算法 的决策从算法设计到数据采集再到具体运算的环节 都可能隐藏着偏见。类 ChatGPT 人工智能技术与网 络舆情决策的结合,其算法偏见在决策过程中表现 在四个方面。一是类 ChatGPT 人工智能算法本身可 能不是尽善尽美的,它可能受设计者自身认知偏见 和外部利益驱动的影响,研发者在设计算法时将自 己的价值观念和喜好渗透到人工智能算法的编程中, 并为其塑造特定的信息环境,这些充斥算法偏见的 “信息茧房”以“积极”或“消极”的方式影响使 用者的认知思维,甚至固化了使用者的认知思维并 驱使其走向主观化和片面化。也就是说,网络舆情 决策者的认知思维深受算法本身的束缚和影响,导致其决策认知思维的偏见和狭隘。二是类 ChatGPT 人工智能算法结果的输出归根结底来自数据的输入, 但无论是训练数据还是决策数据的输入,都会受到 操作者主观因素的影响,尤其是在网络舆情决策中 决策者对网络舆情信息与数据的偏好是客观存在的, 信息与数据输入的非客观和不完整,造成网络舆情 决策内容的不全面。三是类 ChatGPT 人工智能算法 并不会分析判断使用者给出的指示是否符合主流价 值观,而网络舆情决策者价值观的正确与否,将影 响到网络舆情决策的客观公正。四是类 ChatGPT 人 工智能基于数据的算法在深度挖掘网络舆情信息过 程中,可能自行发现有用规律,突破决策者算法规 则的预期设想而产生难以预料的算法偏见。由此可 见,基于类 ChatGPT 人工智能算法的网络舆情决策, 由于算法本身的不中立性、数据隐含错误和人为操 控等原因,使其不仅不能充分发挥在决策中的正向 效应,相反还容易导致决策内容倾向的异化,难以 保证决策的客观公正,影响公众对决策的认同感。
(三)技术滥用引发决策中个人隐私侵犯
互联网和信息技术的发展应用,引发了个人信 息泄露和隐私侵犯问题。人类社会的网络化、数字化、 智能化使个人隐私泄露风险大大增加,这不单指个 人信息泄露于公共领域,更是个人数据的组合将人 立体暴露于大众视野中,数据与算法所构建的“超 级全景监狱”致使身处其中的人毫无隐私可言 [16]。 类 ChatGPT 人工智能技术嵌入网络舆情决策,可能 会引发个人隐私侵犯风险。首先,在决策信息与数 据的获取过程中,无序的信息与数据挖掘可能会侵 犯个人隐私。运用类 ChatGPT 人工智能技术对关涉 网络舆情个人的大量非公开信息与数据进行挖掘时, 虽然人工智能在关涉网络舆情个人信息与数据的采 集过程中会采取一定的匿名化和脱敏措施,但在深 度挖掘过程中如果这些信息与数据没有得到妥善保 护,就无法完全消除侵犯和泄露个人隐私的风险。 其次,在决策信息与数据的分析过程中,基于个人 信息与数据的算法推断也可能存在侵犯个人隐私的情况。即使类 ChatGPT 人工智能技术在网络舆情决 策中收集到的个人信息与数据是碎片的、孤立的和 被去除个人标识的,其凭借强大的数据收集、信息 整合和算法分析能力,也可以从碎片、孤立和匿名 的信息与数据中推断出个人的身份信息和基本特征, 勾勒出个人的情感认知状态甚至生成“数据画像”, 重新识别并揭示个人隐私。最后,在决策信息与数 据的使用过程中,政府部门数据安全保密制度的缺 失和工作人员专业素养不高也会造成个人隐私泄露。 网络舆情决策需要各单位能够及时进行信息交流和 数据共享,相关部门协同合作作出网络舆情决策, 但在信息交流与数据共享的过程中,可能由于政府 部门数据安全保密制度的缺失和工作人员数字素养 不高,导致个人信息和隐私泄露。
(四)机器依赖弱化决策中人的主体地位
类 ChatGPT 人工智能技术与网络舆情决策的结 合,在决策数据的采集储存、加工处理、输出转换、 推测预测等方面显示出优势,但这可能会让人们陶 醉于类 ChatGPT 人工智能与人类相似的理解能力、 推测能力和创造能力,而忘记充分思考其技术弊端。 不清楚技术弊端的源头和回溯机制,只是盲目地在 决策过程中通过机器收集的信息和输出的数据进行 决策方案的设计与择优,这样就会产生对机器的过 度依赖。“随着科学家越来越了解人类的决策机制, 对算法的依赖可能也会越来越强烈。掌握了人类的 决策机制后,就能提升大数据算法的可能性,但同 时降低了人类感受的可靠性。”[17] 网络舆情决策过 程中对机器的依赖程度越高,人的主观能动性可能 会变得无关紧要,所有与机器生成数据不同的观点 或者质疑机器的声音都会被自动忽略,决策系统反 而在技术发展中封闭起来,人在决策中的主体地位 被削弱。然而,类 ChatGPT 人工智能技术嵌入网络 舆情决策,存在着因数据失真导致决策的“不科学”、 算法偏见导致决策的“不客观”、算法黑箱导致决 策的“不理解”、缺乏善意导致决策的“不可控”、 智能幻觉导致安全的“不可靠”等诸多风险或问题,而这些风险或问题是类 ChatGPT 人工智能技术嵌入 网络舆情决策自身带来且通过自身无法消解的,只 有充分发挥人在网络舆情决策中的主观能动性,才 有可能防范这些风险或化解这些问题。如果在网络 舆情决策过程中过于依赖于机器,缺乏人的理性思 维、批判精神和价值关怀,纯技术化的决策过程可 能会生成片面化的决策。
三、类 ChatGPT 人工智能技术嵌入网络舆情决策的风险防范
类 ChatGPT 人工智能技术嵌入网络舆情决策, 既给决策过程优化提供了技术支撑,又在决策过程 中隐藏着潜在的风险。我们要积极利用其对网络舆 情决策有利的一面,又要理性思考其在网络舆情决 策中存在的各种风险,并积极主动采取各种应对措 施,有效防范各种风险。
(一)合理界定类 ChatGPT 嵌入网络舆情决策的角色定位
类 ChatGPT 人工智能本质上是一个基于统计学 习方法的猜词模型,该模型通过海量多模态数据的 训练,从而具有了与人类相似的理解能力、推测能 力和创造能力,可以代替人类进行部分脑力劳动, 形成人机共生的关系。但对机器的过于依赖可能会 造成人机关系的异化,使人失去想象力、批判力和 创造力,甚至纯粹沦为技术的附庸。马克思曾经深 刻地指出,机器代替手工劳动导致人的异化,使得 一部分人变成了机器,“劳动生产了智慧,但是给 工人生产了愚钝和痴呆”[18]。虽然类 ChatGPT 人工 智能具有与人类大脑类似的特性和能力,可以模拟 人类的思维和认知,但它的这种类脑化思维和认知 属于直觉思维和快思考,不具备人类的批判性思维 和理性思考能力,在网络舆情决策的问答“接龙游戏” 中,其仅仅是通过对海量网络舆情数据的统计和算 法分析做到“讲人话”,而无法确保其所讲的是“真 话”,机器学习的概率性质与技术逻辑决定了无法 保证其输出的决策结果的真实性和客观性。而人类的思维和认知是一种批判性思维和辨识性认知,可 以基于对事物前因后果关系的客观认知与主观经验 的相互作用,实现闭环思考并完整理解事物背后的 意义,尤其是在网络舆情决策中,人类能够结合语 境对网络空间的语言、情绪和情感等蕴含的寓意进 行全面思考和辩证分析,从而真正理解网民的诉求, 提高决策的科学性。类 ChatGPT 给人类在网络舆情 决策过程中提供了诸多技术支撑,将人类从决策的 一些常规性工作中解放出来,从而集中精力思考决 策价值问题和发挥创造力探索发展方向,我们不 能再将类 ChatGPT 视为传统的决策技术工具,但 也不能将其等同于与人类一样的决策主体。在网 络舆情决策过程中,类 ChatGPT 只是辅助人类作 出决策的工具,并不会完全代替人类作出决策, 人类在决策过程中仍然占据主导地位,并需要对 类 ChatGPT进行监管使其更好地为人类决策服务, 这是类 ChatGPT 嵌入网络舆情决策需要确立的基 本理念。
(二)持续强化类 ChatGPT 嵌入网络舆情决策的技术把关
数据、算法和算力是类 ChatGPT 人工智能技术 嵌入并推动网络舆情决策智能化发展的“三驾马车”, 只有数据真实可靠和算法客观公正,才能发挥类 ChatGPT 人工智能技术嵌入网络舆情决策的正向效 应,推动网络舆情决策向智能化方向发展。为了确 保类 ChatGPT 人工智能技术在网络舆情决策中的应 用向善向美,必须持续强化对数据获取和算法应用 的技术把关。一方面,确保数据采集的真实可靠和 使用的合理合法。数据的质量决定了类 ChatGPT 人 工智能技术在网络舆情决策中应用的结果,因为准 确且真实的数据有利于政府运用类 ChatGPT 人工智 能作出科学的网络舆情决策,政府网络舆情管理部 门应明确数据的获取途径和方式,并对数据来源的 途径和获取的数据进行严格审查,杜绝从不正规的、 非法的渠道获取数据,避免虚假性、歧视性的数据 渗入网络舆情决策数据中,从源头上防止因数据的 失真导致网络舆情决策的失误;同时还要合法合理 使用数据,政府网络舆情管理部门需要在合法合理 范围内利用采集的信息与数据,将其用于回应网民 合理利益诉求和防范网络舆情风险,向网民传递最 准确的信息、还原事件或问题真相,消解网络舆情 风险,引导网络舆情良性发展。另一方面,完善算 法运行规则和提高算法透明度。类 ChatGPT 人工智 能算法作为嵌入网络舆情决策的核心技术,在算法 运行中应以公正性原则为指导,完善算法运行的相 关规则,避免因决策者个人的好恶而对网络舆情信 息与数据进行筛选或过滤,确保为算法提供体现网 络舆情客观性和公正性的信息与数据;同时还要提 高算法透明度,算法透明不仅要求公开算法过程, 而且要求增强算法结果的解释。通过完善算法运行 规则和提高算法透明度,有效规避网络舆情决策中 的算法偏见、算法歧视和算法操控,从而增强基于 算法的网络舆情决策的客观性和可信性。
(三)建立健全类 ChatGPT 嵌入网络舆情决策的制度保障
“制度治理与技术治理之间有一种相互补充的 关系”[19],“智能决策”不仅需要技术支撑,而且 需要制度保障。类 ChatGPT 人工智能技术嵌入网络 舆情决策,需要针对其制度尚不健全的现状,不断 完善其在网络舆情决策中应用的制度规则,以保障 其在网络舆情决策中正向效应的发挥并有效预防其 带来的诸多风险。第一,制定类 ChatGPT 技术嵌入 网络舆情决策的相关法规。政府有关部门应尽快制 定相关法规,规范类 ChatGPT 技术在网络舆情决策 中应用的范围和边界,包括对网络舆情决策数据的 来源渠道、数据的筛选处理、算法的使用规则、个 人隐私的保护等进行明确的规定和要求。第二,构 筑类 ChatGPT 技术嵌入网络舆情决策的伦理规约。 伦理规约是应对技术危机的必由之路。在网络舆情 决策中建立人机共生的协作关系,需要构筑坚持以 人为本、尊重人的主体性,准确安全、公平透明, 可解释、可问责且坚实有力的类 ChatGPT 人工智能 伦理规约,强化人在网络舆情决策中的主体地位和 诚信品质。第三,健全类 ChatGPT 技术嵌入网络舆 情决策的监管制度。目前有关人工智能技术发展和 应用的监管制度尚未形成体系,要想让类 ChatGPT 技术在网络舆情决策中向善而不是作恶,就需要建 立起多主体、各环节、多维度、全方位的监管体系, 一旦发现类 ChatGPT 人工智能在技术设计和使用方 面的违法或不当,监管部门就应该立即予以制止并 监督整改落实,规避类 ChatGPT 人工智能技术在网 络舆情决策中的滥用。第四,建立类 ChatGPT 技术 嵌入网络舆情决策的风险防控机制。类 ChatGPT 技 术嵌入网络舆情决策后,会因技术自身因素或应用 不当,而滋生诸多风险,应针对类 ChatGPT 技术在 网络舆情决策中数据的采集储存、加工处理、共享 使用、转换输出等方面存在的潜在风险和安全隐患, 建立全过程、全方位、立体化的风险防范机制和安 全保障体系。
(四)培养提升决策相关人员使用类 ChatGPT 的数字素养
决策人员的数字素养对类 ChatGPT 技术在网 络舆情决策中正向效应的发挥、潜在风险的防范和 可持续发展至关重要。因此,要教育和帮助网络舆 情决策相关人员主动适应网络舆情决策智能化发展 的要求,全面提升自己的技术能力和数字素养。第 一,树立人在决策中的主体地位。强化人在决策中 的主体地位,坚持以人为主、以物为用的原则,平 衡工具理性与价值理性的关系,防止工具理性对价 值理性的僭越。“技术所要解决的是主体同客体的 关系问题”[20],网络舆情决策人员必须认识到,类 ChatGPT 技术可以是辅助人类优化决策的手段,却 无法替代人类作出决策,其在决策中的使用应既包 含对技术工具理性目标的追求,又要充分彰显对人 类价值理性的尊崇,不应该将类 ChatGPT 技术视为 决策中无所不能的“全能神”,更不应该放弃人在决策中的主体性地位,而是要促进决策中工具理性 与价值理性的平衡,实现决策中人机关系的和谐共 生。第二,提升决策人员应用类 ChatGPT 的技术能 力。提升决策人员向 ChatGPT 等大型自然语言模型 恰当提出问题、并对其回答进行判断和验证的能力, 以便得到高质量的回答和发现回答中出现的偏差, 避免简单机械化应用 ChatGPT 技术可能带来的决策 风险;还需要掌握算法的基本概念、理解算法的应 用原理和遵守算法的基本原则,避免算法运用不当 造成决策不够客观公正。第三,培养决策人员应用 类 ChatGPT 技术的安全意识。培养决策人员的隐私 保护意识,在网络舆情数据采集中不得刻意收集个 人信息和挖掘个人隐私,在决策过程中应妥善保护 个人信息和隐私不外泄;培养决策人员的数据安全 意识,确保决策数据来源的真实性、可靠性和储存 的安全性,避免数据失真造成决策的失误和数据被 窃取而滥用;培养决策人员的风险防范意识,避免 在不安全的环境下使用个人信息和数据进行决策。
四、结语
类 ChatGPT 人工智能技术与网络舆情决策的结 合,既为网络舆情决策带来了诸多便利,也给网络 舆情决策带来各种风险。但类 ChatGPT 人工智能技 术在网络舆情决策中的应用是大势所趋、不可逆转 的,我们不能因为其在赋能网络舆情决策过程中存 在风险就将其束之高阁,而是要从需求和问题导向 出发,思考如何使其在技术上可行、制度上可为和 管理上可控等现实问题,坚持以人为主、以物为用 相统一原则、技术理性与价值理性平衡原则,全面 分析类 ChatGPT 人工智能技术对网络舆情决策的积 极作用与不利影响,理性思考网络舆情决策中的人 机关系,积极探索网络舆情决策过程中人机协同的 智能决策模式。