美国联邦与州人工智能立法之争
美国联邦与州人工智能立法之争
随着前沿人工智能模型(如OpenAI、Gemini、Anthropic等)的迅速普及与持续发展,如何对这些能力强大、影响深远的前沿人工智能模型进行有效监管,已成为全球立法者共同关注的核心议题。美国作为众多前沿技术和人工智能企业的发源地,其相关立法进程呈现出高度的动态性与复杂性。一方面,前沿人工智能模型背后的大型科技企业积极游说美国政府采取相对“轻监管”的政策取向,以维持技术创新活力和国际竞争优势;另一方面,立法者亦对前沿人工智能模型的潜在安全隐患表示担忧,倾向于通过立法对相关主体施加更为严格的强制性信息披露与报告义务。
由于美国采取联邦制体制,联邦与州在立法权上的交叠,导致了人工智能模型监管思路上的分歧。联邦层面呈现出“轻立法、重行政指导”的特点,主要依赖行政令和行业自律,尚未通过类似欧盟《人工智能法案》的统一性、综合性联邦法律。相比之下,州层面立法行动更为积极。以加州和纽约州为代表,部分州已开始通过州级立法,对前沿人工智能模型的开发者施加更为实质性的监管与合规约束。其中,加州作为美国科技产业和人工智能研发的重要中心,在监管思路上最接近欧盟的“强监管”模式。纽约州紧随其后,也对前沿人工智能模型开发者引入了一定程度的披露义务和安全事件报告义务。加州与纽约州在针对前沿人工智能的监管理念上高度一致,但在具体执行机制、处罚力度和适用范围上存在差异。
本文旨在评述近期美国加州和纽约州围绕前沿人工智能模型所推进的州级立法动向,并结合联邦层面试图推动人工智能立法协调与统一的最新进展,对美国当前前沿人工智能监管框架的演变趋势进行分析。
一、加州:前沿人工智能监管的先行者
加州作为美国科技产业和人工智能创新的重要中心,长期以来都是前沿人工智能模型立法的先行者与政策风向标,其相关立法探索经历了从相对激进的制度设计到更加精准、可操作性更强的监管路径转变。
2024年,加州议员曾提出SB 1047 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act[1](下称《SB 1047法案》),试图对前沿人工智能模型建立一套高强度的安全监管框架。然而,该法案因监管思路被认为过于激进,最终遭到科技巨头、政界高层以及风险投资界的广泛反对而未能通过。
在《SB 1047 法案》被否决后,加州转而继续探索更精细化的基于场景和风险的监管框架,并在2025最终出台了SB 53 Transparency in Frontier Artificial Intelligence Act[2](下称《SB 53法案》)。该法案成为美国首部专门针对前沿人工智能模型设立监管义务的州级立法。
1.被否决的《SB 1047法案》
《SB 1047法案》原拟对训练成本超1亿美元且计算量超10^26次整数或浮点运算的前沿人工智能模型实施严格监管,立法草案中提出的主要监管要求包括:
a.全面停机能力要求。《SB 1047法案》要求前沿人工智能模型开发者必须采取相应技术手段,以能够实现“迅速启动全面停机”,对其控制下的所有受监管模型及其衍生模型进行统一关闭或中止运行;
b.安全和保障协议制定要求。《SB 1047法案》要求前沿人工智能模型开发者必须采取在当时技术条件下合理可行的措施,防止其模型被用于造成重大伤害的用途(如协助创建生物化学武器、实施大规模网络攻击、威胁国家安全等)。同时,开发者需制定并持续维护一套详尽的书面安全和保障协议,用以论述其如何满足法案的合理安全保障要求;
c.开发者严格责任安排。《SB 1047法案》要求前沿人工智能模型开发者对下游用户进行微调和使用模型过程中造成的相关损害承担责任;
d.合规声明和第三方审计要求。《SB 1047法案》要求前沿人工智能模型开发者聘请独立的第三方审计机构评估其安全措施,并向监管机构提交年度合规认证报告。
由于《SB 1047法案》在适用对象上精准聚焦于在计算资源规模和核心通用能力上显著领先行业、且可能产生重大社会影响与系统性风险的少数顶级商业模型,该法案一经提出便遭到美国科技巨头的激烈反对。此外,美国部分人工智能领域的专家学者也指出,《SB 1047法案》过于严苛的合规要求可能扼杀创新和开源社区。在上述多方反对意见的共同作用下,《SB 1047法案》最终于2024年9月被加州州长正式否决。
2.《SB 53法案》
在《SB 1047法案》被否决之后,加州立法者并未放弃对于前沿人工智能模型的进行立法规范的尝试。相反,其在充分吸收前一轮立法争议经验的基础上,对监管目标与制度设计进行了显著收敛与调整。2025年9月29日,《SB 53法案》经加州州长签署正式生效,成为美国首部专门针对前沿人工智能模型设立合规义务的州级立法。《SB 53法案》主要监管对象和合规义务如下:
a.监管对象:《SB 53法案》通过设置算力和财务双重高标准,精准锁定最具规模和潜在风险的模型与开发者。
(1)前沿模型(Frontier Model):指向训练过程中使用超过10^26次整数或浮点运算的模型。该算力指标不仅涵盖模型的初始预训练阶段,也包括后续的微调和强化学习等训练环节。
(2)大型前沿开发者(Large Frontier Developer):指向开发受监管的前沿模型,且开发者及其关联公司在上一年度全球营业收入超过5亿美元的公司。
b.合规义务:《SB 53法案》根据开发主体规模与潜在风险承载能力的不同,区分一般前沿模型开发者和大型前沿开发者,并施加层级化、差异化的合规义务。这一制度设计旨在有效控制人工智能潜在系统性风险的同时,避免对中小型企业施加不成比例的监管负担。
(1)前沿模型开发者的一般合规义务:
(a)透明度披露义务:在首次发布或实质性修改前沿模型前,前沿模型开发者须在其官方网站发布透明度报告,披露内容包括但不限于:模型的主要能力特征、支持的语言与模态类型、预期用途与使用限制、开发者的联系方式等。
(b)安全事件报告义务:前沿模型开发者在发现有关其前沿模型的“关键安全事件”后,应在15日内向加州应急管理办公室报告该事件。若存在迫在眉睫的死亡或重伤风险,则开发者须在24小时内向相应执法机关或公共安全管理部门进行报告。“关键安全事件”主要指向因前沿模型的使用或运行而导致死亡或人身伤害的事件。
(c)吹哨人保护义务:前沿模型开发者不得对善意举报“灾难性风险”或违反《SB 53法案》行为的员工实施任何形式的打击报复措施,且应以清晰、可理解的方式向员工告知其依据《SB 53法案》享有的权利与应承担的责任。“灾难性风险”主要指向可能导致超过50人死亡或严重伤害,或造成超过10亿美元经济损失的风险情形。
(2)大型前沿开发者的特别合规义务:
(a)增强版透明度披露义务:在履行一般前沿模型开发者所要求的透明度披露义务的基础上,大型前沿开发者还须在其透明度报告中额外披露以下内容:灾难性风险评估摘要、是否引入第三方评估机构及其风险评估结论,以及已采取的风险缓解措施。
(b)前沿人工智能框架义务:
i.大型前沿开发者须制定并在其官方网站公开“前沿人工智能框架”,该框架应系统说明如何识别、评估与缓解前沿人工智能模型可能引发的灾难性风险,并同时涵盖内部治理结构、第三方独立评估、网络安全保护措施(含未发布模型权重的保护措施)、事故与安全事件响应机制,以及与美国国内及国际人工智能相关标准和规范的对齐情况。
ii.大型前沿开发者每年应至少对其前沿人工智能框架进行一次审查,并根据需要作出更新。若实质性修改前沿模型,大型前沿开发者还须在30日内同步更新前沿人工智能框架,就相关修改提供合理说明。
(c)风险报告义务:原则上,大型前沿开发者应每季度向加州应急管理办公室提交一次灾难性风险评估总结。
(d)匿名举报机制:若员工基于善意认为有信息表明大型前沿开发者的相关活动具有灾难性风险,且可能对公众健康或安全造成具体和实质性的危险,该员工可进行匿名举报。大型前沿开发者应为员工匿名举报提供内部渠道,并就相关举报事项每月向举报人更新调查进展。
二、纽约州:前沿人工智能监管的追随者
2025年12月19日,纽约州州长正式签署Responsible AI Safety and Education Act[3](下称《RAISE法案》)。继加州之后,纽约州成为美国第二个出台专门针对前沿人工智能模型的法案的州。总体而言,《RAISE法案》的监管思路与加州《SB 53法案》类似,但整体合规义务相对有所减轻。
1.《RAISE法案》
a.监管对象:与加州《SB 53法案》类似,《RAISE法案》同样通过设置算力和财务的双重高标准,对前沿模型和大型开发者进行界定。不同之处在于,《RAISE法案》在财务标准的设定上,并未采用开发主体的营业收入作为衡量指标,而是以模型训练过程中产生的算力成本作为主要判断基准。
(1)前沿模型(Frontier Model):指(i)训练过程中使用超过10^26次整数或浮点运算的模型,且算力成本超过1亿美元,或(ii)对前述前沿模型采用知识蒸馏方法进行训练、且蒸馏过程的算力成本超过500万美元的人工智能模型。
(2)大型开发者(Large Developer):指已训练至少一个前沿模型,且在前沿模型训练过程中累计支出超过1亿美元算力成本的个人或实体。经认证的高校和学院,如其活动仅限于学术研究目的,则不被视为大型开发者。另外,若任何个人或实体将前沿模型的全部知识产权完全转让给另一方,则接收方应被视为大型开发者并承担合规责任。
b.合规义务:与加州《SB 53法案》不同,《RAISE法案》并未区分一般前沿模型开发者与大型开发者并分别设定差异化的合规义务,而是将核心法律义务集中施加于大型开发者。《RAISE 法案》针对大型开发者确立的主要合规要求如下。
(1)安全和保障协议制定要求:此义务与加州《SB 53法案》下针对大型前沿开发者的前沿人工智能框架义务高度相似。
(a)在部署任何前沿模型之前,大型开发者必须制定一份书面的安全和保障协议并持续更新。该协议应涵盖前沿模型测试结果及风险缓解措施。此协议应留存一份未删减副本,其存档期限应覆盖该前沿模型的部署期间以及停止服务后至少五年;
(b)大型开发者应将删减版的安全和保障协议对外发布,并将删减版提交至纽约州总检察长及国土安全与紧急事务部门;
(c)另外,大型开发者应采取充分的安全保障措施以防范不合理的“关键危害”。“关键危害”指向可能导致超过100人死亡或造成超过10 亿美元经济损失的风险,与加州《SB 53法案》定义的“灾难性风险”在实质上较为相似。
(d)大型开发者应每年对其安全和保障协议进行审查,并根据该前沿模型能力的变化及行业最佳实践的发展,在必要时对该协议作出相应修改,并对外公布修改后的版本。
(2)安全事件报告义务:大型开发者应在其知悉影响前沿模型的“安全事件”,或在掌握足以合理认定相关“安全事件”已经发生的事实后的72小时向纽约州总检察长及国土安全与紧急事务部门披露该事件。“安全事件”指向已知的关键危害,或其他可能导致关键危害风险增加的前沿模型非正常使用活动。
三、联邦统一人工智能国家政策的尝试
随着加州和纽约州相继出台针对前沿人工智能模型的州级立法,美国在人工智能监管领域逐渐呈现出以安全风险为核心、对前沿人工智能开发者实施较强约束的州级治理趋势,其主要监管对象集中于 OpenAI、Meta 等具备显著技术优势和市场影响力的科技巨头。然而,州级立法在不同司法辖区内的并行推进,也在一定程度上加剧了监管规则的碎片化风险。
此前,特朗普政府曾试图在预算法案H.R.1 One Big Beautiful Bill Act中冻结州级人工智能监管权,但最终该条款未通过,具体可参考笔者所著《美国人工智能监管框架》一文。在此背景下,为了消除州级监管碎片化对创新造成的阻碍,2025年12月11日,美国白宫特朗普政府发布了Ensuring a National Policy Framework For Artificial Intelligence[4]行政命令(下称《确保人工智能国家政策框架》),该行政命令旨在通过构建统一的联邦人工智能政策框架,强化联邦层面对人工智能治理方向的主导权,确保美国在全球人工智能竞争中的领先地位。《确保人工智能国家政策框架》主要通过授权联邦行政机构采取如下一系列措施,对州级人工智能监管形成系统性约束和实质性压制。
1.设立人工智能诉讼特别工作组
《确保人工智能国家政策框架》要求美国司法部总检察长在该行政命令发布之日起30日内成立人工智能诉讼特别工作组。该工作组的主要职责在于识别并挑战与“最小化人工智能监管”的联邦政策框架相冲突的州级人工智能立法。人工智能诉讼特别工作组可考虑基于违宪或违反联邦法规优先权等依据提起诉讼,从而使得相关州法律被宣告不具法律效力。
2.联邦资金与资助项目限制
《确保人工智能国家政策框架》要求商务部长在90日内识别并评估冲突的州级人工智能立法,特别是那些要求强制披露、报告或修改人工智能输出内容的州级法律,并公开发布评估结果。
同时,商务部长应在90日内发布政策声明,明确实施与联邦政策框架相冲突的人工智能立法的州,将丧失“宽带公平接入与部署计划”等特定联邦资金拨款项目的资格。另一方面,各联邦行政部门应评估其他联邦资助项目的适用条件,对实施冲突性人工智能立法的州限制相关资金的开放,或仅在附加条件的情况下予以资助。
3.制定联邦统一的人工智能标准
在商务部长识别冲突州立法并发布评估结果后的90日内,《确保人工智能国家政策框架》要求联邦通信委员会主席考虑制定一项统一的人工智能模型报告与披露标准,并明确该联邦标准在适用时应优先于与之冲突的州法律。
同时,该行政命令还要求联邦贸易委员会主席在《确保人工智能国家政策框架》发布90日内制定一项政策声明,明确其对“不公平和欺诈性行为”的执法权限可延伸适用于人工智能模型领域,该政策声明须特别说明,在何种情况下,要求修改人工智能真实输出内容的州法律应被《联邦贸易委员会法》中关于禁止不公平和欺诈性行为的条款所取代。
此外,《确保人工智能国家政策框架》亦呼吁进一步构建更为系统的联邦人工智能政策框架,并在此基础上提出联邦层面的立法建议,以确立联邦人工智能立法对冲突性州法律的优先适用地位。
4.人工智能立法领域联邦优先权的例外
尽管《确保人工智能国家政策框架》整体上旨在通过联邦优先权统一美国人工智能立法,并排除与之冲突的州级规范,但该行政命令亦明确列举了若干非穷尽性的例外领域,主要包括:
a.儿童安全保护领域;
b.人工智能算力与数据中心基础设施领域,普遍适用的审批改革除外;
c.州政府自身对人工智能的采购或使用活动。
《确保人工智能国家政策框架》行政命令是特朗普政府“美国AI行动计划”(Winning the Race: America’s AI Action Plan[5])的重要延伸,标志着联邦层面对州级人工智能立法权的主动介入与系统性回应。其目标不仅在于确立全国统一的人工智能政策标准,更在于通过行政权力手段重塑联邦与州在人工智能治理中的权力分配结构,以确保美国企业在中美技术竞争背景下不因“意识形态”或“过度监管”而处于不利地位。然而,该行政命令能否成功挑战冲突的州级人工智能立法,并进一步推动统一的联邦人工智能立法体系,仍面临显著的司法审查风险与制度不确定性。其实际法律效力和政策影响,最终将取决于联邦法院对联邦优先权适用范围的裁决,以及后续联邦政策措施的具体落实情况。
四、总结与展望
随着加州《SB 53法案》与纽约州《RAISE法案》的相继出台,美国前沿人工智能监管正步入“州级先行、标准分化”的关键时期,地方层面以安全风险为核心的强监管趋势与联邦政府“轻监管、促创新”的政策取向形成鲜明张力。特朗普政府通过《确保人工智能国家政策框架》行政命令发动的联邦优先权攻势,标志着人工智能治理领域联邦与州权力博弈的正式升级,未来围绕州法合宪性、联邦优先权适用范围以及具体监管标准冲突的司法诉讼将显著增加。
然而,在联邦统一立法仍缺位且行政命令面临司法审查不确定性的背景下,企业短期内仍需应对多州并行的合规义务。长远来看,美国能否在保障技术安全与维持创新竞争力之间取得平衡,将取决于联邦立法机构能否在科技游说与公众安全关切之间达成有效共识,以及联邦与州监管权限的终极法律界定。
[注]
[1] 原文参见:https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB1047。
[2] 原文参见:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202520260SB53。
[3] 原文参见:https://legislation.nysenate.gov/pdf/bills/2025/S6953B。
[4] 原文参见:https://www.whitehouse.gov/presidential-actions/2025/12/eliminating-state-law-obstruction-of-national-artificial-intelligence-policy/。
[5] 原文参见:https://www.whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf。