互联网平台治理,早已不是新鲜话题。平台如何通过系统性、创新性的治理,构建一个既安全可信又充满活力的网络空间,成为行业内外持续关注的焦点。
1月21日,抖音在“2026安全与信任大会”上公布10项新举措,将在2025年相关工作基础上,继续聚焦算法透明、平台治理、用户服务三大方向,持续推进安全与信任平台环境建设。
此次公布的举措,并非凭空而来,而是对一年前承诺的深化与升级。2025年1月,抖音曾宣布推出10项措施,建立安全与信任中心,旨在切实推动算法和平台治理透明化,创建安全与信任的平台环境,打造更良好的网络生态。如今,新“10项举措”的推出,标志着平台治理从承诺走向了持续行动的新阶段。
透明化呼应了公众的监督意愿
过去,平台的推荐算法常常被视为一个“黑箱”。用户感觉自己的信息流被无形的手操控,由此产生了“信息茧房”“流量操控”等诸多疑虑和误解。这种不透明,成为横亘在平台与用户之间的一道信任壁垒。
抖音在过去一年的核心破题点,正是透明化这道考题。其上线安全与信任中心网站,全面公开算法原理,并针对“信息茧房”等公众关切问题直接答疑,可以看作是一次主动的“拆箱”行动。超过150万次的网站访问量,以及30余场与媒体、学界的算法沟通会,说明这种开放姿态确实击中了公众的知识渴求与监督意愿。
透明化不仅仅是“晒出来”,更要“讲明白”。平台与科普创作者合作,通过动画、场景演绎制作系列视频,拆解算法逻辑,教会用户如何与算法更好互动。这种授人以渔的科普,比单纯的规则公示更进一步,它试图将用户从被动的信息接收者,转变为理解平台运行逻辑的积极参与者。
▲1月21日,抖音发布《2025抖音安全与信任年度报告》,总结了平台在推进算法透明化方面的工作。与此同时,平台治理的规则与过程也走向前台。全年120余篇治理公告的常态化发布,将AI滥用、网络暴力、色情低俗等领域的治理案例公之于众。邀请专家学者、创作者参与新规制定的讨论,更是在规则形成的源头注入了多元视角和社会智慧。透明化由此超越了单向的信息公开,开始构建一个多方参与、共同协商的治理生态雏形。
对争议流量进行主动管理
如果说透明化建立了信任的基础,那真正的治理效能,则需要在复杂的具体问题上经受考验。过去一年,抖音的治理实践呈现出明显的技术驱动特征,尤其在对谣言、争议热点等棘手问题的处理上,体现得尤为明显。
谣言治理是内容平台的老大难问题。其复杂性在于,谣言往往诞生于信息真空期,传播速度极快,且信源容易被污染和篡改。传统依赖人工审核和用户举报的模式,在速度和规模上常显乏力。
抖音引入大模型技术后,将谣言的发现与响应速度从“天”级压缩到“小时”级,使得平台谣言曝光量同比下降90%,举报量下降74%。这不仅是效率的提升,更是治理模式的变革——从滞后处理转向主动发现与快速拦截。配合“AI抖音求真”功能在浏览、搜索场景的主动提示,平台治理从“堵”延伸到“疏”,帮助用户建立了自身的谣言免疫力。
争议热点信息的治理则更具挑战性。热点事件,尤其是带有情感冲突和社会争议的事件,极易在传播中失焦、失真,甚至被恶意利用。事实尚未清晰时,情绪化的猜测、站队、攻击可能已充斥网络。抖音创新性推出《社区热点信息和账号治理规则(试行)》,核心在于对争议流量进行主动管理和价值纠偏。
譬如,在“韦东奕入驻社交媒体”事件中,平台主动核实当事人账号的真实性,打击仿冒蹭热账号;在“河南郑州续面事件”中,则对涉事双方提前下发防网暴提醒,并处置相关攻击与谣言内容。这些举措的指向很明确:在热点发酵的初期,平台不应只是流量的被动管道,而应成为事实的“守门员”和社区情绪的“稳定器”,通过主动研判,保护当事人,打击恶意蹭热,引导讨论回归事实本身。
▲1月21日,抖音发布《2025抖音安全与信任年度报告》。《报告》显示,对比年初,2025年抖音平台谣言曝光量下降90%。
此外,面对AI生成内容滥用、恶意营销号等新兴问题,平台通过推出多项专项治理规范,也在尝试为行业建立前瞻性的规则参考。这些实践表明,平台治理正在从应对式、被动式,向预见式、主动式演进。
一道复杂的长期命题
尽管,过去包括抖音在内的互联网平台在内容治理上取得了显著成果,但也必须认识到,网络内容生态治理的本质是极其复杂的系统工程,不存在一劳永逸的解决方案。平台在前进中,始终面临诸多模糊地带和深层挑战。
首先,是治理边界的模糊性。以网络暴力为例,其界定本身就带有主观色彩。一句严厉的批评与恶意的辱骂,有时仅一线之隔。如何精准识别潜在网暴行为和愤怒诱饵,而不误伤正常的意见表达和情绪宣泄,对算法技术和人工审核的智慧都是巨大考验。抖音提出优化推荐算法、多维度治理愤怒诱饵,并强化权益保护,正是试图在技术干预与权益保障之间寻找更精细的平衡点。
其次,是多元价值观的碰撞与共识形成之难。在争议热点事件中,何为理性讨论,何为不当言论,不同立场、背景的用户可能有截然不同的判断。平台出台规则进行引导,本身也可能引发关于言论边界的讨论。这要求平台的治理不仅要有规则,更要有透明、坦诚的沟通,解释规则背后的价值考量,并在实践中保持谦抑和审慎,不断收集反馈进行调整。
再者,还有治理的可持续性。治理需要持续投入巨大的技术、人力和资金成本。打击黑灰产、处置海量违规内容、研发新的治理技术,都是一场持久战。同时,治理的成效最终要服务于构建健康、优质的内容生态。抖音提出加大优质内容扶持、构建优质内容池、助力创作者成长,正是意识到,唯有让优质内容获得更多激励和曝光,让真诚创作者获得合理回报,才能从根本上提升生态的健康度,形成良币驱逐劣币的良性循环。
尤其值得注意的是平台对“一老一小”群体的关注。为未成年人打造“亲子护航”“AI笔记”等陪伴工具,为老年人提供清晰易懂的上网指引,体现了平台治理从内容安全向群体福祉的维度拓展。用户服务的优化,如提升侵权处理效率、升级反诈服务,则是将治理的成果直接转化为用户可感知的安全感与便利度。
总的来说,平台治理前路漫漫,不可能一蹴而就。技术的双刃剑效应、人性的复杂、社会情绪的流动,都决定了这是一项复杂的系统工程。公众的监督、行业的切磋、规则的演进,都需持续进行。但值得肯定的是,当平台主动打破黑箱,将治理逻辑推到阳光底下,我们距离那个安全、信任、良好的网络生态就更近了一步。
撰稿 / 喻辛(媒体人)
编辑 / 迟道华