智库河南
映象首页 > 智库河南 > 理论前沿 > 正文

警惕“流量恶搞”对人工智能公信力的隐性侵蚀

2026-05-16 08:52:05 来源:映象网

[摘要]   随着AI技术和人工智能的蓬勃发展,短视频平台上围绕AI对话模型“豆包”的一系列恶搞视频引发关注。

        随着AI技术和人工智能的蓬勃发展,短视频平台上围绕AI对话模型“豆包”的一系列恶搞视频引发关注。有博主通过多轮诱导,引导AI说出“把三棵玉米苗全部拔除”等荒谬指令;另有用户刻意设置情绪化对话场景,再掐头去尾剪辑,炮制出AI“发脾气、怼人、情绪化”的片段。这些视频点击量可观,评论区不乏“AI真蠢”“人工智障”等嘲讽之声。

        值得警惕的是,这种行为已非个例,而是一种正在扩散的“科技娱乐化、造假商业化”现象。人工智能本身没有情绪,也不具备主观恶意,其输出基于算法与训练数据。所谓“AI翻车”“AI发火”,本质上都是人为设计的结果:或通过多轮对话强制设定“必须暴躁回答”,或从正常交互中截取最具刺激性的片段,抹去全部上下文。驱动此类行为的核心逻辑并非技术探讨,而是点击率、转发量与流量收益。至于是否扭曲事实、误导公众、透支新兴技术的信任基础,他们并不在意。

这一现象的深层危害,需要从两个维度加以审视

一是公众认知的偏差风险碎片化、戏剧化的AI对话片段反复传播,容易在普通用户心中固化“人工智能不靠谱”“AI缺乏理性”等刻板印象。长此以往,公众对AI在民生服务、科普答疑、生活辅助、社会治理等领域的实用性与严谨性产生系统性质疑,这与发展人工智能造福社会的初心背道而驰。据中国消费者协会2024年相关调查,42.2%的用户曾反馈AI生成内容存在“信息不准确”问题,其中部分误解恰恰源于脱离上下文的片段式传播。

二是AI学习环境的潜在污染当前主流AI模型高度依赖互联网数据进行训练与反馈优化。那些被恶意诱导生成的虚假对话、刻意制造的“翻车”片段,若不加以甄别,可能逐渐渗入数据采集渠道。当“挖坑—剪辑—传播”的链条持续运转,AI学习到的将不再是真实的用户需求,而是一个被扭曲、被娱乐化的样本空间。如果流量导向的失真数据持续反哺模型,AI的响应质量与可靠性将面临被“教偏”的系统性风险。这并非危言耸听。

面对这一新兴但典型的网络内容乱象,监管与治理框架应当及时回应。事实上,我国已有相关法规奠定基础。《互联网信息服务深度合成管理规定》明确禁止利用深度合成技术制作、复制、发布、传播虚假新闻信息;《人工智能生成合成内容标识办法》(2025年9月1日起施行)也提出对AI生成内容进行显著标识的要求。针对“恶意诱导AI对话—断章取义剪辑传播”这一新型造假行为,有必要在现有网络内容治理框架内进一步明确违规边界。例如,将其纳入虚假信息或恶意误导性内容范畴进行认定与处置。

在治理路径上,平台、监管部门与用户三方需要协同发力

平台是第一道关口短视频平台作为内容生态的守门人,不应因“互动率高”而对恶意诱导、剪辑造假的视频默认纵容甚至暗中推荐。建议平台加快建立针对“恶意诱导AI内容”的识别机制,对反复发布此类失实视频的账号采取下架、限流、暂停收益乃至永久封禁等措施。守住事实底线,不是一句口号,而是平台不可推卸的责任。

监管层面需要制度跟进回望短视频发展历程,早期充斥的低俗、猎奇、编造内容,正是通过“网络清朗行动”等系统性治理才逐步扭转。今天发生在AI领域的“流量恶搞”,同样需要政府层面的规则供给。建议主管部门针对“恶意调教AI”“断章取义剪辑对话”等行为出台明确认定标准,纳入现有网络内容治理框架,对屡教不改的账号及其背后的利益链条依法打击。同时,可探索建立“AI内容真实性核查与辟谣平台”,像打击网络谣言一样对典型失实视频进行集中澄清。

用户层面则需提升媒介素养当看到“AI翻车”“AI发火”等耸动视频时,不妨多一份审慎:这是真实的视频画面,还是被人为诱导并剪辑出来的片段?不轻信、不助推未经核实的戏剧化内容,本身就是对科技公信力的守护。

科技向善,方能行稳致远。人工智能已深度融入经济社会与日常生活,它是一项服务于人的技术,而非供无底线消遣的玩具。以客观、理性、科学的态度看待AI,不让流量恶搞消解来之不易的科技公信力。这既是对技术发展规律的尊重,也是对社会信息环境的负责。唯有如此,人工智能才能真正回归服务社会、造福大众的正轨,在一个清朗、健康的生态中持续成长。

 作者:马廷彦 系河南省浚县社会科学界联合会副主席

网站简介 | 版权声明 | 广告服务 | 联系方式 | 网站地图

Copyright © 2012 hnr.cn Corporation,All Rights Reserved

映象网络 版权所有