采访|AI“整蛊”敲响娱乐背后的法律警钟

发布者:上海司法研究所发布时间:2026-04-07浏览次数:10

(来源:法治参考)近日,安徽一女子用AI工具生成了高度逼真的“流浪汉卧坐餐厅”等图片,发送给在外聚餐的丈夫,丈夫当即报警求助。此类以“戏谑”为名的AI生成内容滥用事件已在多地频发,部分案件引发公安机关连夜处警,暴露出AI生成合成内容(含虚拟图像、数字人像、合成语音等多模态形式)的法律风险防控漏洞。有观点认为,此类行为仅为“戏谑”;也有观点认为,该行为绝非单纯的“玩笑”,亟须从法治层面明确规范,以防范潜在的社会危害。

AI“整蛊”乱象频发

近日,安徽铜陵一名女子使用AI生成“流浪汉卧坐家中餐厅”的逼真图像,丈夫收到后立即报警,当地派出所启动应急机制,民警连夜出警,最终证实为虚假情况。警方随后对该女子进行批评教育,指出其行为“属于浪费公共资源”。

随着生成式AI技术迭代演进,其“双刃剑”效应日益凸显:一方面,便利了创意表达,另一方面,因技术门槛低,催生了深度伪造、虚假信息、有害信息传播等多重乱象。据记者了解,用户只需打开AI生图工具,上传一张家中内部照片,输入一句简单的提示词,几秒即可生成以假乱真的“流浪汉闯入家中”画面,再用图生视频功能,即可生成“流浪汉在家中行走”的视频画面。更有平台在相关视频下方直接接入生图工具入口,用户刷到类似内容后,可一键跳转、选择同款模板,迅速生成“整蛊”图片,极易诱导用户模仿。

法律治理存在瓶颈

上海政法学院上海司法研究所讲师周陈在接受采访时表示,当前AI生成内容治理面临以下瓶颈:一方面,法律规制与技术发展存在适配时差。现有法律条款对AI工具使用的规制大多停留在禁止性条款层面,缺乏对技术滥用场景的动态调整。“同样是生成虚假图像,个人基于好奇向亲友分享与商业主体为流量变现发布至公共平台的行为,其社会危害性与主观恶性差异显著,亟须差异化的法律责任配置。”周陈说。

另一方面,网络有害信息传播呈现“量产化+病毒式”特征。生成式AI技术为网络违法有害信息的批量生产提供了技术支撑,部分自媒体、营销机构利用AI工具快速生成耸人听闻的虚假新闻蹭取流量,相较于传统文字谣言,其传播效率提升数倍,导致监管部门的被动处置难以跟上传播速度。

滥用或面临多重法律责任

“AI‘整蛊’绝非法外之地,其制作与传播行为可能触及民事、行政乃至刑事多重法律责任。”周陈说,在行政责任层面,若该类行为构成散布谣言扰乱公共秩序的情形,将违反现行治安管理处罚法第二十五条规定,行为人需承担相应行政处罚责任;在刑事责任层面,故意编造、传播虚假信息,情节严重的可能触犯刑法第二百九十一条之一规定的编造、故意传播虚假信息罪,若针对特定主体实施诽谤行为,则可能构成第二百四十六条规定的诽谤罪。

在民事侵权领域,未经授权使用他人肖像、声音生成合成内容的,违反民法典第一千零一十九条关于肖像权保护、第一千零二十四条对名誉权保护的规定。实践中,利用AI生成虚假名人代言视频进行商品推销的,可能构成欺诈或虚假广告;将合成内容用于低俗传播的,侵害他人人格权益的,受害人可依法主张停止侵害、赔礼道歉及精神损害赔偿。

《生成式人工智能服务管理暂行办法》第十四条明确规定平台方的审核义务,若未履行标识核验、违规处置等义务,需承担连带责任,但应遵循技术中立原则,合理划分平台与用户的责任边界,避免过度苛责抑制技术创新。

构建刚性法律制度

2025年9月1日施行的《人工智能生成合成内容标识办法》(以下简称《标识办法》),标志着我国生成式AI治理从原则性规范进入精细化规制阶段。《标识办法》明确AI生成内容的使用规范与法律责任,要求生成环节的服务提供者必须在内容产出时自动添加显性标识与隐性标识,显性标识通过文字、声音、图形等方式让用户明显感知,隐性标识嵌入文件元数据记录生成属性、服务提供者编码等信息,确保内容可识别、可追溯。

周陈建议,建立分级分类的治理机制:针对个人非商业使用、商业推广、恶意侵权等不同场景,设置差异化的规制措施;推动建立跨部门协同监管平台,整合网信、公安及行业协会等监管资源,实现违法线索的快速移送与处置。同时,须强化行业自律与公众教育,提升公民的AI素养与权利保护意识,引导技术应用“向善发展”。