胡欣红
AI“一本正经地胡说八道”,又有了新案例。据报道,南京律师李小亮在网上搜索自己的信息,某平台“AI智能回答”竟然给出“李小亮律师被判三年有期徒刑”的不实文字内容,并配有其身着律师袍的照片。前不久,二审法院作出终审判决,认定涉事平台构成名誉侵权,判决其作出书面道歉。由于该平台未履行生效判决,李小亮已申请法院强制执行。
使用人工智能大模型时,不少人或许都遭遇过AI幻觉。比如,让它推荐书,给出的却是一堆压根不存在的书名;人物身份张冠李戴,还能给出一些并不准确的链接……发现被AI“欺骗”之后,大多数情况下只能一笑了之。而这一次,终于有人站出来较真了。
某平台在诉讼中以“AI幻觉无法预见、技术发展初期、用户诱导提问、影响产业发展”等理由抗辩,试图将责任推给算法与技术局限。法院审理戳破了这套说辞:案涉AI智能回答并非简单信息聚合,而是平台通过算法对文字与图片主动加工、定向合成、公开推送,内容指向明确、贬损信息具体,直接导致律师社会评价降低,完全符合名誉侵权的构成要件。更具说服力的是,庭审中法官直指核心——同类AI产品并未出现此类严重造谣,足以证明并非技术不可控,而是平台未尽到与行业水平匹配的审核与防控义务。
从法律逻辑看,AI本身不具备民事主体资格,但其生成内容是平台训练数据、算法设计、运营管控的延伸行为,责任主体只能是背后的运营企业。2023年8月正式实施的《生成式人工智能服务管理暂行办法》明确,AI服务提供者应当依法承担网络信息内容生产者责任,履行安全义务,不得侵害他人名誉权等人格权益。平台一边享受AI带来的流量与商业红利,一边以“技术中性”“算法自主”推卸责任,既违背权责一致原则,也与法律规定相悖。就像智能驾驶出事故不能归咎于汽车系统,AI造谣侵权责任也必须由运营平台承担,不能让技术成为责任悬空的挡箭牌。
这起判决并非对AI产业“泼冷水”,反而彰显了司法在鼓励创新与保护权益之间的精准平衡。法院既认定侵权成立、捍卫公民人格尊严,又未支持高额赔偿,仅要求书面道歉,充分考虑了AI发展初期的技术局限,体现了对技术创新的包容,避免过度惩戒误伤产业发展。
此前,杭州互联网法院审结了首例AI幻觉侵权纠纷案也彰显了司法的谨慎态度:用户梁某在某AI应用中查询高校报考信息时,模型输出了明显错误的校区及招生信息,梁某以遭受误导为由起诉AI服务提供商,最终法院驳回了其诉讼请求。法院认为,AI生成的内容是否视为服务提供者的意思需要分情况讨论,在本案的咨询问答场景中,不能视为服务提供者的意思,而且这种“误导”所造成的危害没有造成什么实质性的影响。
人工智能正处于爆发式发展阶段,技术可以迭代试错,但法律底线不容突破,社会责任不能缺位。对平台而言,必须摒弃“技术万能、责任豁免”的错误认知,建立健全高风险内容事前审核、敏感信息精准核验、侵权内容快速处置的全流程机制,用行业最优可行技术防范幻觉侵权,从被动担责转向主动风控。对用户而言,要保持理性,不盲目迷信、不滥用AI,重要信息多方核验,守住独立判断的底线。
合规才是长久之道,向善方能行稳致远。技术创新的终极目标是造福人类,而非伤害他人。AI归根到底是人运行的,幻觉不能成为逃避责任的借口。法律不苛求AI“零幻觉”,但不允许平台以“幻觉”为名,放弃对高风险内容的审核拦截义务,尤其是涉及自然人名誉、刑事犯罪记录等敏感信息,必须执行更严格的事实校验与风险防控标准。