(来源:经济参考报)
在短视频社交平台的隐秘角落,一场基于虚拟合成技术的犯罪正悄然蔓延。记者调查发现,通过AI换脸、深度伪造等虚拟合成技术,大量违背伦理道德的色情视频被“炮制”而出。受害者面容被恶意嫁接到各类低俗影片中,甚至滋生出黑灰产。
业内人士指出,这些以假乱真的换脸视频不仅突破了法律与道德的底线,更对个人安全和社会公序良俗构成严重威胁,呼吁加强治理。
女性面容被恶意嫁接
小雨是一名娱乐主播,直播内容主要是和粉丝聊天,不涉及任何擦边内容。但不法分子却将小雨的脸换到色情影片中传播,让她无端卷入不良舆论风波。
“视频是不能P的”“居然背着我们偷偷拍片”……看到直播间公屏上类似弹幕如爆炸般袭来,小雨自此不敢再参加任何线上或线下社交活动。
后来,小雨在短视频平台又看到,有人毫不避讳地宣扬有关她的色情影片。顺着对方给的联系方式,小雨进入了所谓的“工程设计交流群”,发现群里全是各种各样的网址和行业黑话。在这个群里,不法分子将许多女性的脸换到色情电影中非法牟利。最终,小雨报警,五名嫌疑人被抓,相关账号和群聊也被永久封禁。
小雨的遭遇,并非个例。
记者潜入一个“可灵AI交流群”群聊,群里一位名叫“学校的你进社会”的网友发布了一条擦边视频,声称“988元包教会,流量很好”。视频中,一位自称女大学生的人坐在宿舍床上,穿着黑丝和蕾丝紧身衣做着各种低俗动作。这位网友自诩AI换脸领域高手,只要发给他正脸照,即可生成与照片主人公相关的擦边视频。
而在淘宝搜索“AI人脸替换”,也会出现不少提供AI换脸视频制作服务的商家。消费者只需花费几元到十几元不等,就能定制一部换脸视频,换脸对象可以是普通女性,也可以是女网红、女明星。法律界人士指出,这些被明码标价的照片和视频严重损害了受害者的肖像权益和人格尊严,亟待加强清理。
背后暗藏黑色产业链
深度伪造(Deepfake),是指通过使用人工智能生成技术,将个人的声音、面部表情以及身体动作拼接合成虚假内容。最常见的是AI换脸技术,也包括语音模拟、人脸合成、视频生成等。
2024年8月,韩国曾爆发过一起引发全球关注的深度伪造危害事件。在这起事件中,韩国网民在通讯软件“电报”(Telegram)上发现大量聊天群,其中有成员创建和分享露骨的“深度伪造”色情图像,涉及对象不乏未成年女孩。在付费的深度伪造电报频道中,男性订阅用户甚至只要提供照片,交钱后频道便可为其制作色情图片。社交媒体流传的受深度伪造影响的名单中包含百余所韩国中小学以及国际学校,受害者达到22万余人。
深度伪造的“作案工具”究竟来自哪里?记者采访了解到,最多只需要四样东西:AI换脸软件、预训练模型、被换脸的视频、受害人照片。
首先,AI换脸必然需要受害人的照片。根据相关技术社区的分享,最初版本的深度伪造大概需要50张多角度、高清晰度的照片,才能实现较为自然的视频合成。但经过几年迭代,目前只需要20张左右的照片就可以实现。
其次,制作高清流畅版AI换脸视频需要获取预训练模型。预训练模型,是AI开发的一个基本机制。由于大部分AI模型的前置训练任务是相同的,因此开发者倾向将相同的部分进行预训练,在同类任务中作为公用底座来使用。在AI换脸任务中,由于难以掌握训练方法,大部分新手训练出的AI换脸模型,会出现贴脸不自然、严重掉帧等现象,这时候就需要使用预训练模型。
按理说,作为非技术人员的普通人,应该较难获得预训练模型来进行深度伪造。但事实并非如此。
打开很多电商平台、二手交易平台,可以轻松找到专用于深度伪造的预训练模型。这些模型一般被称为“AI金丹”,只需要几元钱成本,便可轻易获得。
受访专家表示,从照片盗用到预训练模型的交易,每一个环节都暴露了当前网络环境的漏洞。
呼吁加强监管治理
实际上,在打击AI换脸色情视频的技术攻防战中,公安机关面临前所未有的挑战。
太原市某分局王警官介绍,Deepfake技术的受害者群体主要是女性:发布在社交平台上穿着校服的女高中生照片被合成在裸体表情包上;外网流传的相关群聊只需要提供照片便能实现色情图片和视频的自动合成,并且这些群聊还被按照城市和学校进行分类,目的是能在这些人的社交圈内传播。
服务器难以追踪、证据难以保存,是警方不得不面对的现实问题。“想要对AI生成内容进行溯源,难度不亚于大海捞针。”王警官介绍,“犯罪嫌疑人会通过频繁更换服务器、匿名网络信息等手段隐藏踪迹,再加上电子证据极易被加密、篡改或销毁,都对警方搜集证据、研判案情造成阻碍。”
而对于受害者而言,过高的技术壁垒也使得独立取证几乎成为一件不可能的事。“传统办案中‘人赃俱获’的模式在AI犯罪面前已经不起作用了。”王警官坦言。
值得注意的是,近年来,通过开展各类专项行动、加强技术研究,必要时联合国际执法机构协同办案,公安机关“打击利用AI技术犯罪”的多维防线日益紧固。2025年1月,天津的李先生被诈骗分子伪造的企业老板视频诱导转账95万元。专案组通过分析转账资金流向、追踪异常IP地址,联合网络安全公司还原了犯罪团伙利用AI语音合成技术实施诈骗的全过程。最终警方与银行联动冻结了李先生的账户,追回了83万元。
业内人士指出,技术再逼真,人性的漏洞永远是突破口。面对可疑电话时保持冷静,收到亲友紧急转账请求时多渠道核实,警惕背后可能存在的AI语音合成陷阱。
下一篇:美股涨跌互现