3月18日下午,一组数字从在北京举办的今日头条2025年度平台治理媒体开放日现场传出:
过去一年,平台向用户推送300余万条涉诈风险提醒,处置网暴相关违规评论3.6亿条,为70万账号开启一键防网暴功能,封禁涉诈账号18万个、水军账号13.9万个,处置低质AIGC内容超260万条,清理虚假内容700余万条。
“安全是平台不可逾越的底线。”今日头条安全运营负责人闫梦茹说。这些数字背后,是平台与网络黑灰产之间的日常攻防——诈骗手段不断翻新,网暴形态更加隐蔽,水军团伙链条化运作,而治理也在同步迭代。
反诈:300万次提醒的背后
“有人冒充明星骗走了老人的养老钱。”闫梦茹用这样一句话,道出了2025年平台面临的一大安全挑战。
网络诈骗严重威胁用户财产安全,是平台治理聚焦的核心领域之一。据白皮书披露,平台识别出的网络诈骗类型中,兼职诈骗占比43.67%,金融投资类诈骗占比29.84%,交友诈骗占比19.42%,三类构成诈骗内容主体。
中国政法大学网络法学研究所所长李怀胜指出,网络诈骗已从简单信息欺诈演变为技术驱动、分工明确的复合型犯罪产业,形成一个完整的犯罪生态系统——上游有技术支撑,中游有内容引流,下游有洗钱变现。今日头条报告中列举的AI仿冒财经人士荐股、杀猪盘社交诈骗等案例,正是这一趋势的典型写照。

中国政法大学网络法学研究所所长李怀胜。
为有效拦截风险,平台成立反诈专项治理团队,构建注册登录、行为特征、内容识别、团伙打击四维全链路识别体系。2025年,平台累计处置涉诈内容135万条、涉诈评论4.7万余条,封禁涉诈账号18万个,针对高危私信发送风险提醒300余万次。
技术之外,平台还在尝试另一种方式,如用寓言条漫、动画短片等形式,让用户看得懂、记得住。
李怀胜特别提到,今日头条的治理报告中有两组数据值得深思:一是平台通过私信对高危风险进行了300余万条提醒,二是部分用户对反诈提示存在抵触情绪。“没有公众的主动参与,再严密的技术防线都可能被突破。”
网暴:3.6亿条评论被处置
网络暴力是“看不见的利器”,但对于身处热点漩涡中的当事人,其伤害真实可感。从普通网民到公众人物,从社会事件当事人到体育明星,无人能完全置身事外。
“去年,我们把治理网暴、净化平台氛围摆在突出位置,重点打击辱骂攻击、造谣诽谤等恶劣行为。”闫梦茹表示,同时对体育领域“饭圈化”进行了清理,拉踩引战、互撕谩骂等问题得到有效治理。
据介绍,平台采取内容和账号双线并行的策略。内容侧,加强识别模型迭代和网暴关键词扩充,实现风险快速识别,从源头阻断恶评传播。运营团队持续扩充敏感词库,不仅涵盖明显的辱骂词汇,还包括各种变体、谐音、隐晦表达。账号侧,实施梯度式处罚,根据情节严重程度分级处置,轻者发文禁言、发评禁言,严重者永久封禁。
更值得关注的是对潜在网暴受害者的主动保护。平台会主动发送一键防护功能提醒,让用户避免遭受评论和私信大量攻击。“这是我们近年来做的重要努力,把网暴保护措施做得更加前置。”闫梦茹说。

今日头条安全运营负责人闫梦茹。
当系统识别到某账号可能成为网暴目标时,会立即推送防护功能开启提示,用户只需一键确认,即可屏蔽陌生人的评论和私信。2025年,平台累计处置网暴相关违规评论3.6亿条,为70余万个账号开启一键防网暴功能。
体育饭圈化专项治理方面,平台对攻击性评论进行整治。去年全运会期间,平台对体育运动员做了保护,并联合媒体推出打击体育饭圈化短视频,倡导理性观赛、文明讨论,该视频播放量超500万。
水军:13.9万个账号被封禁
网络水军是平台生态顽疾,一些不法分子通过抹黑品牌、抹黑个人,损害创作者和用户体验。
据介绍,常见的水军行为包括:发布重复或雷同内容刷流量、为特定文章或话题造势、挑起争端或引导用户相互攻击谩骂等。2025年,今日头条对网络水军持续治理。
在治理实践中,平台总结出水军三大典型行为特征。第一类是有组织、有预谋批量发布相似不实信息,在热点事件中带节奏,抹黑当事人、品牌,从中牟利。如在某品牌事件中,平台排查处置水军账号发文超48万条,拦截水军账号恶意评论3.1万条。
第二类是通过刷粉、刷赞伪造流量,制造虚假热度。自2022年起,平台重点治理该行为,累计清理虚假粉丝关系超2464万,月封禁刷量账号超万个。
第三类是违规售卖刷量、交易账号,违规解除账号处罚等“灰产服务”,从而实施诈骗。
针对团伙链条化行为,平台采取阶梯式处罚,根据违规情节对账号进行处置。同时开展常态化专项治理,明确规则、公开公告,让治理标准更加透明。每月发布的治理公告中,平台披露封禁账号数量、典型违规案例、处罚依据。此外,平台联合媒体向公众揭露水军套路,把治理置于社会监督之下。
2025年,平台已处置6700余万条内容、191万余条评论,累计封禁水军账号13.9万个。
闫梦茹表示:“过去一年,我们在反诈、网暴、水军问题上重点投入。用户的安全感是我们努力的方向。”
谣言与AI:1小时回扫与260万条处置
随着AI技术的持续迭代,AI文案和AI画面的识别难度均在提升。其中深度伪造类的AI画面很容易让用户产生违背事实的虚假认知,风险尤为高。
今日头条内容治理运营负责人郑子龙介绍,AIGC技术普及带来内容生产便利,也催生低质AI内容、虚假谣言批量传播等问题。

今日头条内容治理运营负责人郑子龙。
在低质AI内容治理上,平台建立内容与账号双重管控机制。内容层面,通过监控发文和用户反馈挖掘新特征,持续迭代管控标准;账号层面,对持续发布低质AI内容的作者实施流量打压甚至禁言处罚,通过治理公告引导创作者自觉抵制。全年处置低质AIGC内容超260万条,对违规账号实施流量限制、禁言等处罚。
在网络谣言治理方面,平台搭建全链路处置体系。通过谣言知识库对虚假信息进行查证总结,系统自动提取关键信息与权威信源比对,实时监测辟谣动态。完成判定后,系统在1小时内完成全平台存量谣言回扫清理,同步上线拦截策略阻断变体传播。
2025年,平台结合大模型上线AI虚构图片、联网查证等识别链路,通过热点预警、虚假线索挖掘及多种前置拦截机制控制虚假内容浓度,同时推出“头条治序”科普内容。全年清理虚假内容700余万条,处置违规账号3.3万个。
郑子龙坦言,面对技术迭代带来的新趋势、新挑战,仍有大量工作亟待推进。
共治之路:优质内容与公众参与
面对上述挑战,单靠平台的力量远远不够。在筑牢治理防线的同时,平台同步推进优质深度内容扶持,并呼吁更多公众参与。
郑子龙介绍,随着内容生产格局变化,优质深度内容的稀缺性愈发凸显。平台为优质深度内容提供流量支持与资金补贴,为创作者升级专项服务,孵化新作者、对接权威媒体。2025年,近200名专家学者及前一线媒体人入驻,平台优质深度图文阅读量较去年增长近三倍。
中国社会科学院大学互联网法治研究中心主任刘晓春认为,低质AI内容治理需明确标准、技术赋能、多方协同。平台应完善AI内容标识与审核机制,强化技术检测与创作者引导,推动形成监管、平台、用户共治格局,从源头遏制虚假误导内容蔓延。

中国社会科学院大学互联网法治研究中心主任刘晓春。
闫梦茹介绍,当平台监测到网络诈骗等相关风险时,会通过私信提醒方式警示用户,“若平台在对话框中提示‘该对话可能涉及交易转账、个人隐私等敏感信息,谨防诈骗、遵守国家法律法规’等内容,请用户务必高度关注相关风险,提高警惕。”
“生态治理同样也离不开公众的参与,提高用户对于生态治理的认知对构建一个健康、多元、清朗的平台生态非常重要。”郑子龙表示。
李怀胜认为,公众参与应体现在意识提升、行为改变、反馈机制三个层面。他建议进一步推动“反诈教育进校园、进社区、进家庭”,将安全意识融入日常生活,形成全社会共同防范诈骗的浓厚氛围。
南方+记者 刘长欣
订阅后可查看全文(剩余80%)
