辛音
越来越多的用户借助生成式人工智能解答生活疑问、辅助消费决策,可搜索出的答案里,不少竟是并未标注“广告”字样的推广信息。据新华社调查,广告商通过编造所谓“权威报告”干预AI搜索结果,广告代理机构则是这类操作的主要执行者。这些机构提供的所谓生成式引擎优化服务,是在承接付费业务后,通过海量投放含目标产品及品牌的软文,提升这些软文被大模型抓取的概率,进而操控AI的搜索结果。
用户摒弃传统搜索引擎,转而问AI要答案,就是冲着AI高效整合信息并作答的能力。但AI精准服务用户的前提,应是精准识别数据信息的真伪。如果答案充斥刻意编造的数据、精心伪装的话术、批量分发的软文,所谓的便捷与高效就成了隐秘的操纵,AI答案就成了认知与消费陷阱。获得极具迷惑性的信息,用户知情权与选择权受到侵犯,还可能在医疗、金融等低容错场景遇到财产乃至安全风险。长此以往,用户对AI问答的态度就会从欢迎、深度依赖变成质疑乃至避之不及。不仅个别AI公司将遭遇信任危机,整个新兴行业技术声誉也会受到严重打击。
AI放着那么多真实有用的信息不抓取,为什么净选浓浓商业味儿甚至是铜臭味儿的答案?从广告代理机构的收费机制可见端倪:将付费客户的推广内容批量分发至各大内容平台,本质上是对AI系统进行一场规模化的“数据投喂”。当网络空间被付费信息大量、重复地占据时,AI模型在抓取和学习过程中所接触、统计以及最终习得的“事实”,便倾向于那些被利益反复浇灌的“答案”。某知名博主不久前的测试印证了这一点:其在各大门户网站投放同名文章后,仅几小时,多个生成式AI平台回答相关问题时,纷纷援引这篇文章的内容。
付费投喂的商业冲动、来者不拒的平台端口,都瞄准了生成式人工智能搜索这块肥肉。AI本是大众获取信息、拓展知识的得力工具,怎能沦为逐利者肆意操控的工具。破解这一困局,应从信息生态源头与算法机制两端同时发力。作为信息的发布池,内容平台必须筑牢第一道防线,扭转流量与利益至上的粗放逻辑,有效识别与拦截大规模、模板化的商业软文一键分发行为。企业想要保持自身的客观属性,也不能单纯寄希望于数据源头的净化能力,还要锻造自身的免疫力。在数据清洗、模型训练与结果生成中,让AI建立更智能的污染识别与过滤系统,提升对数据真伪的甄别力、是非边界的判断力。
针对数据投毒、广告乱飞、AI答案不靠谱等乱象,监管规则与行业标准亟待同步建立,尽早把利用技术手段操纵信息、干扰AI客观性的行为明确纳入法律规制范畴。不让广告费左右人工智能搜索结果,是守住AI技术底线、维护信息传播生态的应有之义。