人工智能生成合成内容标识合规十问十答
人工智能生成合成内容标识合规十问十答
随着人工智能技术的飞速发展,AI生成合成内容已经深入到我们生活的方方面面。从文本创作到图像生成,从音频合成到视频制作,AI技术正在重塑内容创作和传播的方式。然而,技术的进步也带来了新的挑战:如何区分人工智能生成内容与人类创作内容?如何防范AI技术被恶意利用?如何保护公民、法人和其他组织的合法权益?
2025年3月14日,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布了《人工智能生成合成内容标识办法》(以下简称“《标识办法》”)。此外,国家市场监督管理总局、国家标准化管理委员会还并配套发布了强制性国家标准GB 45438-2025《网络安全技术 人工智能生成合成内容标识方法》(以下简称“《标识方法》”)。随着上述规定于2025年9月1日起正式生效施行,一套覆盖全链条、多模态的AI内容标识合规体系已然确立。近期,网信部门集中查处一批存在人工智能生成合成内容标识违法违规问题的移动互联网应用程序,依法依规予以约谈、责令限期改正、下架下线等处置处罚,有关人工智能生成合成内容标识的合规监管已然落地。本文将以问答的形式,就相关企业在履行标识义务过程中常见的问题进行释明,帮助企业搭建其标识合规体系。
1. 为什么要对人工智能生成合成内容进行标识?
《标识办法》第1条明确其立法目的为“促进人工智能健康发展,规范人工智能生成合成内容标识,保护公民、法人和其他组织合法权益,维护社会公共利益。”具体来说,在当前人工智能技术迅猛发展的背景下,AI生成合成内容的真实感不断增强,部分内容已使得普通网络用户难以辨别其所接触信息是否来源于AI技术。此类内容若被不当利用、过度滥用乃至恶意操纵,将可能引发显著的社会安全与信任风险。
标识制度并非要限制AI技术的发展,而是要为技术发展划定边界、建立规则。一方面,对人工智能生成合成内容进行标识是保障公众知情权与信息真实性的关键举措,能够让受众清晰辨别信息来源,防止因误信虚假内容而遭受误导、欺诈,也因此有助于避免AI合成内容被不当利用,保护公民、法人和其他组织合法权益,维护社会公共利益;另一方面,通过明确的标识要求,可以提升AI技术安全水平,增强公众对AI技术的信任,为技术的健康发展和商业化应用创造良好的社会环境。
2. 提供人工智能生成合成内容服务的平台应当如何履行标识义务?
作为人工智能生成合成内容的主要源头,提供人工智能生成合成内容服务的平台承担着重要的标识义务。根据《标识办法》的规定,服务提供者应当履行以下义务:
(1)开展标识活动:服务提供者需要根据《标识办法》第4条和第5条的规定对生成合成内容添加显式标识,并在生成合成内容的文件元数据中添加隐式标识;服务提供者提供生成合成内容下载、复制、导出等功能时,应当确保文件中含有满足要求的显式标识;
(2)在用户协议中进行说明提示:在用户服务协议中明确说明生成合成内容标识的方法、样式等规范内容,并提示用户仔细阅读并理解相关的标识管理要求;
(3)依用户申请提供不添加显式标识的内容:用户申请服务提供者提供没有添加显式标识的生成合成内容的,服务提供者可以在通过用户协议明确用户的标识义务和使用责任后,提供不含显式标识的生成合成内容,并依法留存提供对象信息等相关日志不少于六个月;
(4)其他协助义务:在履行算法备案、安全评估等手续时,应当提供生成合成内容标识相关材料,并加强标识信息共享,为防范打击相关违法犯罪活动提供支持和帮助。
3. 如果提供的产品/服务没有包含人工智能生成合成内容的功能,是否还需要关注标识义务?
《标识办法》不仅规定了人工智能生成合成内容服务提供者的标识义务,还规定网络信息内容传播服务提供者、互联网应用程序分发平台等主体也负有对自身平台上传播、分发的生成合成内容进行标识的法定义务。实践中,如果企业提供的产品/服务没有包含人工智能生成合成内容的功能,还应关注其是否因构成生成合成内容的分发、传播主体而需要履行相应的标识义务。具体来说:
(1)互联网应用程序分发平台:在应用程序上架或者上线审核时,应当要求互联网应用程序服务提供者说明是否提供人工智能生成合成服务。互联网应用程序服务提供者提供人工智能生成合成服务的,互联网应用程序分发平台应当核验其生成合成内容标识相关材料;
(2)网络信息内容传播服务提供者:如果企业提供的产品/服务允许用户上传内容,即使产品本身没有AI生成合成功能,也可能需要承担传播服务提供者的标识义务,包括:

图1 网络信息内容传播服务提供者的标识义务
4. 传播平台可否通过要求用户不上传人工智能生成合成内容,来避免承担标识义务?
仅通过用户协议或其他方式要求用户不上传人工智能生成合成内容,并不能完全免除传播平台的标识义务。在实践中,考虑到现有的人工智能生成合成内容检测技术往往不够成熟和完善,无法100%准确识别所有人工智能生成合成内容,加之海量内容使得辅以人工审核的成本极高,用户还可能通过技术手段去除或篡改标识,完全禁止用户上传人工智能生成合成内容几乎是不可能的;在此背景下,《标识办法》第6条所规定的传播服务提供者的标识义务(具体见上文第3问所述)是强制性的,我们倾向于认为企业作为传播平台不能通过用户协议或其他方式要求用户不上传人工智能生成合成内容来避免履行以上标识义务。要想妥善管理相关合规风险,还是需要妥善履行第3问中介绍的传播平台的相关标识义务。
5. 人工智能生成合成内容标识里的显式标识和隐式标识分别长什么样?
显式标识是在人工智能生成合成内容或交互场景界面中添加的,以文字、声音、图形等方式呈现并可被用户明显感知到的标识。例如,文本内容显式标识是在文本的起始、末尾或者中间适当位置添加的文字提示或者通用符号提示等标识,或者在交互场景界面、文字周边添加的显著的提示标识;图片内容显式标识是在图片的适当位置(边或角)添加的显著的提示标识;交互场景界面显式标识是在内容附近持续显示的提示文字或者在交互场景界面顶部、底部、背景等适当位置持续显示的提示文字。就标识内容而言,无论标识的对象为何种形式(文本、图片、音频、视频、虚拟场景、交互场景界面),显式标识都应当同时包含人工智能要素和生成合成要素,即:包含“人工智能”或“AI”,表明使用人工智能技术;以及包含“生成”和/或“合成”,表明内容制作方式为“生成”和/或“合成”。就标识形式而言,根据《标识方法》的规定,针对不同的标识内容通常会采取包括文字、角标、语音标识、音频节奏标识等不同的标识形式。以下是部分显式标识的示例:

图2为文本内容显式标识示例,图3为图片内容显式标识示例
隐式标识是采取技术措施在人工智能生成合成内容文件数据中添加的,不易被用户明显感知到的标识,主要包括文件元数据隐式标识和内容隐式标识。其中,文件元数据隐式标识包含生成合成标签要素、生成合成服务提供者要素、内容制作编号要素、内容传播服务提供者要素以及内容传播编号要素;在格式方面,文件元数据隐式标识应符合《标识方法》附录E的规定。以下是部分隐式标识的示例:

图4 图片文件元数据隐式标识示例
6. 显式标识和隐式标识是不是二选一即可?
根据《标识办法》的规定,显式标识和隐式标识不是替代关系,而是并存互补关系。首先,就其功能定位来看,显式标识主要用途是向公众提示内容由人工智能生成合成,防止公众被误导或欺骗;隐式标识主要用途是记录生成合成内容相关信息,便于监管部门追踪内容来源,为侵权追溯提供技术支持。一般而言,人工智能生成合成内容服务提供者需要同时对生成合成内容添加显式标识和在生成合成内容的文件元数据中添加隐式标识;但在部分特殊情形下,如服务提供者提供的生成合成内容不存在文件元数据,在技术上无法实现对文件元数据的隐式标识,则不需要添加隐式标识,但依然需要对生成合成内容添加显式标识。
7. 如果提供的产品/服务不是文本、图片,而是音频、视频、虚拟场景,如何进行标识?
《标识办法》和《标识方法》对于音频、视频、虚拟场景等的标识要求亦进行了明确规定。具体来说,在标识内容方面,如上文第5问所述,无论标识的对象为何种形式(音频、视频、虚拟场景),其显式标识都应当同时包含人工智能要素和生成合成要素;在标识形式、标识位置等方面,《标识方法》对于音频内容、视频内容和虚拟场景的显式标识分别进行了规定。
就文件元数据隐式标识而言,音视频内容的文件元数据隐式标识在内容和格式方面与文本、图片的文件元数据隐式标识所遵循的要求实质一致,具体见上文第5问的说明。以下是部分音视频生成合成内容的显式标识和隐式标识示例:

图5为音频内容显式标识示例,图6为视频内容显式标识示例

图7为音频文件元数据隐式标识示例,图8为视频文件元数据隐式标识示例
8. 如果违反标识相关规定,会面临哪些法律责任和风险?
根据《标识办法》的规定,“违反本办法规定的,由网信、电信、公安和广播电视等有关主管部门依据职责,按照有关法律、行政法规、部门规章的规定予以处理”。此处的有关法律法规包括但不限于《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等。违反上述规定,可能会面临包括警告,通报批评,责令限期改正,责令暂停提供相关服务,责令暂停信息更新并处罚款,治安管理处罚,甚至追究刑事责任等在内的法律责任和风险。
9. 出海企业在海外是否也要关注人工智能生成合成内容标识合规要求?
目前,生成合成内容标识义务正在逐渐成为一项国际“惯例”,不少海外国家已经或正在探索将标识义务纳入法律法规之中。出海企业在海外展业时同样应当关注人工智能生成合成内容标识的合规要求,降低企业在当地的违法违规风险。以下是一些典型海外国家的法规要求:
▶ 欧盟发布的《人工智能法》(the AI Act)第50条要求生成合成音频、图像、视频或文本内容的人工智能系统(包括通用人工智能系统)提供者,应确保人工智能系统的输出内容以机器可读格式进行标识,且可检测其为人为生成或操纵(artificially generated or manipulated),并应在技术可行的前提下保证这种标识的技术方案具备有效性、可互操作、稳健性以及可靠性。生成或操纵构成“深度伪造”的图像、音频或视频内容的人工智能系统部署者,应披露该内容为人为生成或操纵。
▶ 美国加州2024年8月发布的AB-3211《数字内容溯源标识法案(草案)》曾提议在人工智能生成内容中嵌入可溯源数据以确保内容来源的透明度,加州州长2024年9月19日正式签署的《加州人工智能透明度法》(the California AI Transparency Act)明确要求每月有超过100 万名用户的生成式人工智能系统提供者应提供免费的AI检测工具,允许用户验证内容是否由AI生成,并履行针对人工智能生成内容提供显性标识功能以及设置隐式标识的义务。
▶ 越南的《数字技术产业法(草案)》也提出企业应以机器可读和可检测的格式标记人工智能系统的输出。
10. 总结:面对人工智能生成合成内容标识要求,企业应该采取哪些合规措施?
面对人工智能生成合成内容标识新规的实施与落地,我们建议企业应采取系统性的合规措施,以确保全面满足法律法规要求。具体来说:
高度重视,积极应对。人工智能生成合成内容标识不是可选项,而是必选项。企业应当从战略高度认识其重要性,投入必要资源以确保合规;
系统规划,分步实施。标识合规是一项系统工程,需要从管理、法律、技术等多个维度统筹规划,循序渐进地推进实施。在管理方面,我们建议企业结合最新法律要求,为开展标识工作制定相应的工作方案/制度,并明确各部门的职责分工,确保各部门在开展标识工作过程中有效协作;在法律方面,我们建议企业加强内部有关标识新规的培训和学习,实时跟进监管部门对新规的解读和最新监管实践;在技术方面,我们建议企业开发或采购符合法律要求的标识技术,及时了解技术发展动态,不断改进标识技术。
专业支持,风险可控。就开展标识工作过程中遇到的具体疑问和难点,我们建议企业寻求专业的法律和技术支持,获得专业的法律指导和合规建议,从而确保所采取合规措施的科学性和有效性,将合规风险降至最低。
持续改进,与时俱进。考虑到AI技术和相关法规都在快速发展,我们建议企业应建立动态调整机制,实时关注最新法规要求,加强与同行的交流,总结经验与最佳实践,持续优化合规体系。