[摘要] 网络舆情知识生产是网络空间中各类内容生产主体将信息演变为数据,转化为观点,引发关注,形成一定程度上社会共识的“知识化”的过程。
网络舆情知识生产是网络空间中各类内容生产主体将信息演变为数据,转化为观点,引发关注,形成一定程度上社会共识的“知识化”的过程。据第56次《中国互联网络发展状况统计报告》截至2025年6月底,我国网民规模达11.23亿人,互联网普及率达79.7%,公众借助社交媒体等进行情绪表达的渠道越来越多,而且对舆论场的参与热情愈来愈高涨,网络舆情越来越成为社会情绪的晴雨表,表征社会关注点和公众情绪的变化。
截至2025年6月底,在我国共有439款生成式人工智能服务在国家互联网信息办公室完成备案,人工智能产品DeepSeek等不断向具体应用场景纵深渗透,公众利用生成式人工智能产品回答问题的比例最高达80.9%,AIGC的多模态能力与内容创作等场景深度融合,全民智媒时代的到来将极大的丰富互联网内容生产各类主体的生成工具与手段。网络舆情知识生产与AIGC多模态内容创作场景深度重合,这将导致网络舆情知识生产逻辑在生成式人工智能到来之后迥乎于既往的以人为主体的时代,在舆情全生命周期内,知识生产主体变为人机融合,舆情信息不再局限于多模态信息的融合,舆情演变之中知识生产主体与公众互动机制也将充满新变量。
网络舆情知识生产主体多元化与匿名化。没有互联网之前的舆情知识生产主要来自报纸、广播、电视、期刊等传统媒体,这些媒体机构的记者和编辑进行的新闻生产成为舆情知识生产几乎唯一的渠道,这个时期舆情知识生产的主体相对单一,也并没有匿名。互联网到来之后,舆情进入网络舆情时期,媒体的外延与指向被逐渐扩大,知识水准较高的公众能够自主通过商业机构媒体平台进行新近资讯的采集与发布,达到了与传统媒体机构新闻生产传播同样的效果,同时越来越多公众在商业机构媒体平台构建的公共空间,对社会热点进行意见表达和情绪传递,此时期舆情知识生产的主体形成了传统媒体、公众、商业机构媒体并存的局面。当前,AI具备充分的多模态知识生产能力后,其以拟人的形态进入到了网络舆情知识生产体系中,无论是传统媒体,还是公众,商业机构,抑或AI都已经成为舆情知识生产的主体。由于AI的使用者多样性和AI自主意识导致的自动化知识生产,AI成为“不知疲倦”的内容生产者,纵然在强制要求AI知识生产显性与隐性标识的规定下,AI也可能匿名进行知识生产,模糊了网络舆情知识生产主体人机界限。
网络舆情知识生产自动化与规模海量化。传统媒体的舆情知识生产能力受限于机构的人力,总体数量非常有限,商业机构媒体可以借助公众进行舆情知识UGC,但规模上是有限的。相比于传统媒体、公众、商业机构媒体的生产方式,AIGC在舆情知识生产过程中能够快速地处理大量的舆情数据,基于以往舆情事件进行知识学习,根据生成大模型的设定,进行自动化高效地生成舆情知识,在舆情事件的生命周期内甚至达到指数级增长,远超人力条件下舆情总量上限。
网络舆情知识多模态化与深度伪造。真实客观是传统媒体机构的新闻生产的生命线,其通过法律法规、道德引领、职业准则、个人荣誉等手段来保障新闻信息形式的丰富与真实客观,进而保证了由此产生的舆情知识的多模态与真实客观。由公众和商业机构媒体组成的网络舆情知识生产过程中,多模态化属于常态,但出于不同传播目的的内容生产者进行舆情知识产出,真实客观是由来已久的治理顽疾。AIGC在舆情知识生产过程中能够输出高度拟人化的文本,生成突发事件照片,使“有图有真相”的传统辨识真实性的原则失效,甚至还会臆造舆情当事人音频或现场视频片段,拟真程度远远超越当前公众能够辨识的普遍水准,导致舆情知识生产进入“真假难辨”的深度伪造(Deepfake)阶段。
网络舆情知识传播路径智能化与精准化。传统媒体时代的舆情知识传播路径相对单一,基本遵循线性传播模式,有大众传播、群体传播、人际传播等传播形态贯穿其中。公众和商业机构媒体构成的舆情知识传播时期,传统媒体会将公众舆情知识传播转化为新闻,也会在舆情知识传播中作为 “意见领袖”起到巨大扩大效应,商业机构媒体依赖巨量平台用户进行基于算法的传播,因此多元主体的立体传播成为常态。 而在人工智能深度介入的舆情知识传播中,AI可自动优化分发策略,实现“千人千面”的精准推送,极易形成信息茧房和舆论操纵。
网络舆情知识生产在生成式人工智能到来之后展现出的新特征将会给舆情生成演变应对的过程带来巨大的不确定性,原有对舆情的认知和传播规律应对策略不足以分析和研判此类新形态舆情态势,在舆情生命周期内和舆情治理实践中均存在着潜在风险。
信息安全与国家安全风险。舆情不仅是公众意愿的表达,在国际传播和政治安全方面也发挥着巨大的影响。作为技术与权力互嵌产物的AIGC应用于军事政治领域已经是“在海岸看得见桅杆尖头的航站”。AIGC可被用于制造海量、高质量的虚假新闻和宣传材料,操纵国际国内舆论,干预政治进程。在海湾危机中,AIGC通过扩散假新闻操纵Twitter趋势,同时大量生成在线声明,以此来获取更多公民的支持。在叙利亚内战讨论中,研究者发现社交机器人通过发送与战争无关的话题标签来扰乱在线话语,进行精准社会工程攻击。学者在分析推特涉华议题账号时发现,4045个相关账号中共有449个社交机器人账号,这449个社交机器人账号中有157个都扮演着意见领袖的角色。国外的社交媒体充斥着大量涉及中国的负面舆论,AIGC作为背后操控者的政治腹语在其中发挥了不小的作用,AIGC不仅在国际舆论场影响了公众对战争的看法,而且也影响了西方公众对中国的认知,带来了意识形态层面的风险。
信息生态污染与认知风险。AIGC介入的舆情知识生产导致信息质量不稳定,低质虚假内容泛滥,挤占优质信息空间,造成信息环境污染。AIGC机构背后资本驱使下的技术体系有可能剥夺人的主体地位,将人转化为机器的奴隶。OpenAI的官方提示人工训练员有权查看人机对话信息来改进模型,这意味着使用者输入的信息会被系统后台记录,使用者的身份和财务等个人隐私信息,则有可能被非法利用,AIGC技术管控层面的风险很有可能在网络舆情知识生产中被放大。AIGC本身是一种技术工具,不具有意识形态的性质,但生成式人工智能在内容生产过程中承载着设计者和使用者的价值偏好。在人机互动的过程中AIGC可以根据用户的语言、表情、语气等文本内容分析用户的情绪和意图,并结合聊天过程的上下文内容,快速做出反应、调整回复内容,在潜移默化中影响公众的认知和态度,在运用生成式AI的过程中有可能导致公众出现认知上和心理上对自动化智能系统的过度情感依赖,无形中增加了网络舆情在公众认知层面的风险。更为严重的事,当公众长期无法分辨信息真伪时,会对即使是真实信息也产生怀疑,导致对社会整体媒介系统的信任危机。
法律与伦理风险。在AIGC广泛使用传播情境下进行舆情治理需要技术管理与社会治理等多层面法律法规的结合,但在AIGC诱发的造成巨大社会负面影响的舆情事件处置中,责任归属困境一直存在,AIGC生成内容造成社会危害后,责任主体是开发者、使用者还是平台,目前处置只到使用者层面,对开发者和平台的法律责任认定存在着困难。AIGC学习所依赖的大数据本身就存在着信息质量良莠不齐的情况,因此AIGC大模型会吸收并放大训练数据中存在的偏见,公众使用其进行舆情知识生产,AIGC会基于社会热点事件的情绪倾向,不由自主的生成挑动地域、性别、种族、地域、民族、阶层对立的极端观点,可能会导致舆情事件翻转或舆情朝着一个方向急速极化,甚至会激化社会矛盾,破坏社会稳定。
社会治理与公共决策风险。AIGC广泛使用后,媒介传播中至关重要的议程设置能力可能从传统媒体和政府转移到先进AI模型的技术型垄断机构或恶意AIGC使用者手中,导致舆论场的主导权丧失。无论是AIGC本身的特性,还是流量至上主义者都可能会导致在某些事件的舆情知识生产过程中巨量的非人类信息涌入并急速积聚,形成虚假舆情,诱导形成毫无价值的社会热点,造成公众注意力资源的巨大浪费,甚至酿成社会恐慌。同时,在政府为主体的舆情风险治理工作中,若治理主体和舆情监测机构对被AIGC污染的舆情数据进行大量的收集与程式化分析,很可能导致公共决策误判。
(作者:河南工业大学 张合斌)
(本文系2024年河南省哲学社会科学规划年度项目:基于AIGC的网络舆情知识生产潜在风险及其敏捷治理研究(2024BXW013);2025年度河南省高校人文社会科学研究一般项目“基于AIGC的虚拟型意见领袖价值及其作用机制研究”(2025-ZZJH-329)之成果)