美国人工智能监管框架
美国人工智能监管框架
一、美国人工智能法律框架概述
美国实行三权分立制度,将政府权力分为立法、行政和司法三个独立分支,分别由国会、总统和最高法院行使。同时,美国联邦制又划分了联邦与州的权力边界,确立了“二元立法体系”,即联邦和州各自拥有独立的立法机关和立法权限。联邦层面上,法案需由国会参众两院通过且由美国总统签署生效。州层面上,州立法也需由州议会通过且由州长签署生效。
随着人工智能技术的快速发展,美国的人工智能(“AI”)监管正呈现联邦政策调整、州立法先行以及司法案例快速发展的多层次动态。本文重点评述近期美国联邦层面的国家AI立法与战略、加州AI立法动向,以及人工智能知识产权保护的司法实践。
二、美国联邦层面人工智能立法与政策概览
美国联邦政府在AI领域的监管策略呈现出一种鲜明的特征——相较于对技术本身进行宽泛的基础性规制,立法者更倾向于针对由AI技术应用所引发的特定、可识别的社会危害进行精准打击。这种“下游应用型”监管模式在近期提出并通过的法案中得到了充分体现。然而,由于总统换届,行政层面则表现出显著的政策波动性,反映出不同执政理念在AI治理路径上的根本分歧。总体而言,美国尚未在联邦层面出台一部系统性的AI法令,而是主要依靠倡导性的AI治理原则,鼓励企业自愿采纳相关政策和技术标准。
(一)立法层面——《TAKE IT DOWN Act》[1]
截至目前,美国联邦层面尚未出台一部真正意义上的综合性AI法案,即没有类似欧盟《EU AI Act》那样系统、全面地对人工智能的开发、部署、风险分类、合规义务等进行统一规制的联邦法律。值得注意的是,2025年5月美国国会高票通过并由特朗普总统签署了《TAKE IT DOWN Act》(全称为《Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act》,即《通过阻止网站和网络上的技术性深度伪造来应对已知剥削的工具法案》,下称《删除法案》)。《删除法案》以参众两院罕见的跨党派压倒性支持通过,显示出各界对打击AI深度伪造侵害行为的共识。
这是联邦层面首部聚焦AI深度伪造危害的法律。《删除法案》针对非自愿私密影像的深度伪造问题,规定未经同意制作或分享他人私密影像(包括AI生成的私密影像)即构成联邦刑事犯罪,最高可判处2年监禁,若涉及未成年人则最高可处3年监禁。同时,《删除法案》建立了“通知—删除”机制,要求自2026年5月19日起受规制的网络服务平台在接到受害者通知后48小时内删除相关内容。
(二)行政和策略层面——《Winning the Race: America’s AI Action Plan》[2]
拜登政府曾于2023年发布了第14110号行政令,全称为《Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence》[3](《关于安全、可靠、可信赖的人工智能开发和使用》行政令》),提出“安全、可靠和值得信赖的AI发展”相关原则。但2025年初新上任的特朗普政府迅速废除了前述行政命令,并于2025年1月23日签署了全新的AI行政令,全称为《Removing Barriers to American Leadership in Artificial Intelligence》[4](《破除人工智能领域阻碍美国领先地位的壁垒》),同时要求相关责任主体于2025年7月前制定并向总统提交一份国家人工智能行动计划[5]。
2025年7月23日,白宫正式发布《赢得竞赛:美国AI行动计划》(全称为《Winning the Race: America’s AI Action Plan》,下称《美国AI行动计划》)。《美国AI行动计划》聚焦于加速本土AI创新、提升美国国内算力和芯片等基础设施,以及强化国家安全和国际竞争力三大支柱。这一战略标志着联邦政策从侧重监管的路径转向“去监管、促创新”方向,弱化管制审查色彩,更多着力于扶持私营机构开展AI研发、扩大产能和推行有利于技术发展的措施。例如,《美国AI行动计划》指示各机构清理妨碍AI发展的“繁文缛节”,鼓励开放“大模型”权重,扩大芯片制造和数据中心投资,并通过强化出口管制和供应链安全巩固美国在全球AI领域的主导地位。
值得注意的是,《美国AI行动计划》虽然倡导减少联邦层面的监管干预,但并未阻止各州立法。相反,在早前的预算法案《H.R.1 One Big Beautiful Bill Act》[6]中试图以联邦法冻结州级AI监管权的提案已被参议院否决。白宫改以行政手段间接影响州政策,如考虑在联邦资金分配时评估各州AI监管“友好度”,甚至要求美国国家标准与技术研究院(National Institute of Standards and Technology, 下称“NIST”)修改其AI标准以符合新政府的理念。
(三)技术标准层面——《AI Risk Management Framework》[7]
2023年1月26日,美国国家标准与技术研究院(NIST)制定并发布了《人工智能风险管理框架》(全称为《AI Risk Management Framework》,下称“AI RMF1.0版”),其作为倡议性指南帮助企业自愿遵守在AI全生命周期识别和管理风险等原则,促进可信、负责任的AI技术发展与应用。
2024年7月,NIST进一步发布了《NIST-AI-600-1, Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile》[8],即专门针对生成式AI的风险管理文件,帮助企业应对生成式AI特有的风险并提供相应行动建议。
总体而言,AI RMF1.0版及相关技术标准为倡导性、非强制性文件,旨在为设计、开发、部署或使用人工智能系统的组织提供自愿性指导,帮助其识别、评估和管理AI相关风险,提升AI系统的可信度,但不具备法律约束力。
三、加州层面:生成式AI监管先行者
在缺乏统一联邦立法且各州皆具有立法权的背景下,各州在人工智能立法方面呈现出高度活跃的态势,其立法路径差异显著。其中,加利福尼亚州(“加州”)凭借经济和科技优势,成为全美人工智能立法最活跃的州之一。加州近期围绕生成式AI领域采取了一系列精细立法,针对AI生命周期的不同环节“逐个击破”,包括训练数据透明度、AI生成内容标识等方面,勾勒出模块化的治理思路。主要的新法案和进展如下:
1、《AB-2013 Generative artificial intelligence: training data transparency》(《生成式AI训练数据透明度法案》,下称《AB 2013法案》)[9]
2024年9月28日,《AB 2013法案》由加州州长签署,并将于2026年1月1日正式生效。《AB 2013法案》要求任何面向加州公众开发、提供生成式AI系统的个人或实体(包括2022年1月1日后发布系统的重大更新)必须在其网站公开所使用训练数据集的相关文档,披露训练数据的使用情况。《AB 2013法案》的此项规定与欧盟《EU AI Act》以及中国《生成式人工智能服务管理暂行办法》的训练数据透明度要求类似,凸显出全球重点法域对于生成式人工智能训练数据透明度的关注和重视。
2、SB-942 California AI Transparency Act(《加州AI透明度法案》,下称《SB 942法案》)[10]
2024年9月19日,《SB 942法案》同样由加州州长签署,生效日期同为2026年1月1日。《SB 942法案》要求大型生成式AI提供商(月活用户逾100万)在向加州用户提供AI生成内容时对AI生成内容进行标识,包括隐式标识和显式标识。另外,《SB 942法案》要求大型生成式AI提供商免费提供公开的AI内容检测工具,方便公众或任何第三方校验其提供的内容是否由AI生成,从而构建跨平台的检测生态。
3、《SB-53 Transparency in Frontier Artificial Intelligence Act》(《前沿人工智能透明法案》,下称《SB 53法案》)[11]
2025年9月29日,《SB 53法案》由加州州长签署生效,是美国首部专门针对“前沿人工智能”的州级立法。《SB 53法案》适用于在加州运营、且使用超过10^26次整数或浮点运算的计算能力进行训练的基础模型的开发者,包括OpenAI、Anthropic、Google DeepMind、Meta等公司,要求前沿人工智能开发者公开其研发框架,说明如何采纳标准与最佳实践、如何评估其前沿AI模型可能的安全风险以及采取的防范措施等,同时加州应急服务办公室将建立AI安全事件上报和响应机制。
此前加州曾提出《SB-1047 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act》[12](《前沿人工智能模型安全与保障创新法案》,但最终由于其过于强调前沿人工智能“强制性责任监管”而被否决。此次通过的《SB 53法案》凸显出加州对于AI监管的态度从“强制性责任监管”转向较为温和的“透明度+事件响应”监管思路。
总体而言,加州已率先推出多项针对生成式AI的专项法规,从训练数据透明度、生成式内容标识要求到针对前沿大模型的专门立法,填补了前沿大模型的监管空白,预计将推动美国更多司法管辖区跟进立法。
四、人工智能知识产权领域的司法实践
除了立法监管,AI技术的快速发展也在司法领域引发了一系列知识产权纠纷。当前的司法实践主要围绕两大核心问题展开:一是AI生成内容能否获得版权保护;二是使用受版权保护的数据训练AI模型是否构成“合理使用”。
(一)AI生成内容的版权保护
美国版权局在《版权登记指南:包含人工智能生成材料的作品》[13]中强调,只有当作品包含人类作者身份要求(Human Authorship Requirement)时,该作品才能够受到版权保护。美国版权局在《Zarya of the Dawn》等AI作品的准予版权注册通知书[14]中,同样强调单个未经人类再创作的AI 图像本身不受版权法保护,但自然人对AI生成图像的“选择、安排和协调”(selection, arrangement, and coordination),如具有足够的创造性,则可能获得版权保护。
(二)AI模型训练数据的合理使用
近期美国法院在Kadrey v. Meta Platforms, Inc.和Bartz v. Anthropic两案中均支持将受版权保护的数据用于AI模型训练可能构成“合理使用”,从而不直接构成版权侵权。两案对于AI模型训练及发展具有里程碑意义,凸显出美国司法实践倾向于在保护版权权利人传统合法权益的前提下,不断探寻AI训练数据使用的合法边界。
a.Kadrey v. Meta Platforms, Inc.[15]
在此案中,Meta被13位知名作家指控Meta从“影子图书馆”下载其受版权保护的书籍,用于训练Llama大语言模型,涉嫌版权侵权。
法院根据“合理使用”四要素进行分析,即(i)用途和性质(包括使用是否具有商业性及是否具有转化性[16]),(ii)受保护作品的性质,(iii)使用量和实质性,以及(iv)对原作品市场或价值的影响。法院认为AI模型训练属于高度转化性使用(即法官认为训练大语言模型与人类阅读的目的迥异,与原作品的使用目的和方式相差较大),且原告未能证明AI训练直接替代原市场,亦未证明潜在许可市场受损,最终认定Meta的复制行为构成合理使用。
b.Bartz v. Anthropic[17]
在此案中,多位美国作家通过集体诉讼指控Anthropic在未获许可的情况下从互联网盗版书库获取了数百万本受版权保护的书籍,并购买了一些正版书籍,拆除装订后扫描成电子文件,存储在可搜索查询的中央图书馆数据库中,随后从中央图书馆中调取数据用于训练其AI模型,侵犯了作者的著作权。
美国法院在此案中认定:一方面,通过“合理使用”四要素分析,将受版权保护的书籍文本用于训练AI模型本身可视作合理使用,并不直接构成版权侵权。但另一方面,法官认定Anthropic明知且不当地从盗版网站获取了数百万本书籍,这一获取行为本身构成版权侵权。
由于面临潜在的巨额赔偿责任(若集体诉讼最终败诉,Anthropic可能被裁定赔偿数十亿美元),2025年9月初,Anthropic同意支付总额约15亿美元的和解金与众多作者和解,了结此案。
由此可见,美国AI监管目前呈现出联邦和州加强AI立法的态势,同时通过司法实践不断探究和确立AI知识产权纠纷中法律问题的裁判尺度。可以预见,随着AI技术和应用的快速演进,美国各级监管框架也将不断调整完善。在此过程中,立法者、监管者与司法机构之间的互动,将共同塑造AI发展的法律边界和合规要求。出海企业和从业者需要持续关注这些动态,确保在享受AI创新红利的同时,遵守最新的法律规范,降低潜在的法律风险。
本文成稿于2025年10月,收录于中伦《人工智能3.0》文集。基于美国人工智能立法监管最新动态,笔者将在下篇文章中进一步介绍美国联邦与州围绕前沿人工智能的立法博弈和最新动态。
[注]
[1] 原文参见:https://www.congress.gov/119/bills/s146/BILLS-119s146es.pdf.
[2] 原文参见:https://www.whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf.
[3] 原文参见:https://bidenwhitehouse.archives.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/.
[4] 原文参见:https://www.whitehouse.gov/presidential-actions/2025/01/removing-barriers-to-american-leadership-in-artificial-intelligence/.
[5] 根据《Removing Barriers to American Leadership in Artificial Intelligence》第四条,要求在本行政令发布后的180天内,总统科技助理(APST)、人工智能与加密货币特别顾问及总统国家安全事务助理(APNSA),与总统经济政策助理、总统国内政策助理、管理和预算办公室主任(OMB主任),以及APST和APNSA认为相关的各行政部门及机构负责人协同,制定并向总统提交一份人工智能行动计划。
[6] 原文参见:https://www.congress.gov/bill/119th-congress/house-bill/1.
[7] 原文参见:https://www.nist.gov/itl/ai-risk-management-framework.
[8] 原文参见:https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.600-1.pdf.
[9] 原文参见:https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB2013.
[10] 原文参见:https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB942.
[11] 原文参见:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202520260SB53.
[12] 原文参见:https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB1047.
[13] 原文参见:https://www.govinfo.gov/content/pkg/FR-2023-03-16/pdf/2023-05321.pdf.
[14] 版权局决定参见:https://www.copyright.gov/docs/zarya-of-the-dawn.pdf.
[15] 判决参见:https://storage.courtlistener.com/recap/gov.uscourts.cand.415175/gov.uscourts.cand.415175.598.0_1.pdf.
[16] 转化性使用是指对原作品的使用是否赋予了新的价值、意义或目的,从而与原作品的使用方式或目的有所区别。
[17] 判决参见:https://s3.documentcloud.org/documents/25982181/authors-v-anthropic-ruling.pdf.