并购漫谈——成功AI并购交易的法律考量(一)
并购漫谈——成功AI并购交易的法律考量(一)
人工智能革命带来了该领域并购交易的激增。斯坦福大学人工智能研究院(Human-Centered Artificial Intelligence)报告显示,人工智能相关并购2022年和2023年的总交易额分别约为1,171.6亿美元和959.9亿美元。近两年一系列较为瞩目的人工智能并购交易也频频涌现,如HPE 140亿美金收购Juniper、IBM 64亿美金收购HashiCorp、Meta近150亿美金收购Scale AI、OpenAI 65亿美金收购io、AMD近期接连宣布收购Enosemi、Brium和Untether A的核心团队等,与此同时,全球领先的人工智能芯片企业英伟达(纳斯达克股票代码:NVDA)的市值已突破3万亿美元大关。这一趋势清晰地表明,企业正在通过并购获得或者拓展自身的人工智能研发和应用等能力。
然而,人工智能伴随着监管和法律风险,特别是在人工智能并购活动趋于频繁的情况下,买方面临着知识产权、数据保护、软件工具和许可、员工保密义务以及伦理问题等复杂交织的考虑因素。并且,因为全球人工智能监管框架还在不断演变,人工智能技术也在不断发展,所以人工智能并购交易的买方须做好充分准备以应对这些现在和未来可能的风险。
一、人工智能领域常见法律风险
在对人工智能企业进行收购交易的法律尽职调查期间,买方应当充分考虑与识别人工智能领域相关的常见法律风险,主要包括:
1. 监管方面
了解适用于目标企业业务的监管环境,以及相关司法管辖区内人工智能特定立法对人工智能技术的使用、开发或部署的影响至关重要。实践中目标企业可能不遵守或没有做好准备去遵守即将出台的人工智能相关法规,如爱尔兰数据保护委员会于2024年对Meta处以2.51亿欧元罚款,原因是个人数据泄露事件违反《通用数据保护条例》(General Data Protection Regulation)。近期即将出台的人工智能相关法规,例如美国的《先进人工智能安全准备法案》(Advanced AI Security Readiness Act)和欧盟的《人工智能法案》(Artificial Intelligence Act)等,均从不同维度对企业运用人工智能提出了一些全新且具体的挑战,其中《先进人工智能安全准备法案》要求关键基础设施行业对人工智能的安全性进行评估,《人工智能法案》则要求高风险人工智能应用需通过认证、备案、标识、监控等合规流程。另外,应该特别注意一些国家和法域的人工智能法律具有域外适用性,需要买方考虑目标企业目前的人工智能使用区域和并购整合后可能使用人工智能的区域,以准确识别并遵循应适用的法律法规。
2. 人工智能开发与运维方面
在开源层面,目标企业在使用开源人工智能软件、开源数据或开源模型时,可能受制于传染性许可协议(Viral Licenses)[1],从而影响其对人工智能模型、算法及相关技术的使用和/或控制权。在人工智能应用层面,目标企业在高风险领域(包括生物识别和分类,关键基础设施的运营和管理,教育和职业培训,就业和员工管理,获得和享受基本公共服务及福利资格的评估,执法,移民、庇护和边境管制,司法程序和民主程序等领域)使用人工智能技术时,可能缺乏健全的验证流程,如缺乏用于确认人工智能输出结果准确性的人工监督机制。在人工智能开发实践层面,目标企业对于人工智能的开发应用实践可能存在某些方面的不足,例如缺乏问责框架、风险缓解措施和可解释性机制等。
3. 知识产权方面
目标企业人工智能技术的价值通常与该技术及其基础数据方面的知识产权紧密相关。因此,确认目标企业对知识产权的权属,并调查其对第三方知识产权和开源代码的使用和依赖情况至关重要。另外,确定人工智能训练数据的来源,以及对其商业使用是否存在任何限制也很关键。许多人工智能系统是基于公开可用数据进行训练的,但这些数据的使用可能因其归第三方所有等原因引起纠纷,例如美国出现越来越多涉及版权所有者和人工智能技术开发者的诉讼,包括纽约时报诉OpenAI、迪士尼及环球影业诉Midjourney和Getty Images诉Stability AI案件。同时,也应关注目标企业开展业务中可能依赖的基础模型是否获得了相应的使用权。例如,如果企业使用LLaMa模型并超出一定规模的月活用户(MAU),则需要关注LLaMa社区许可证对其适用的额外使用限制和要求。[2]
4. 商业合同方面
目标企业与第三方签署的商业合同中可能有限制其转让特定人工智能工具的条款。在交易完成后的整合阶段,这些限制性条款可能会给买方集成这些工具带来挑战。此外,还有一类可能因并购交易而产生的商业风险是目标公司的大客户可能会出于其商业或技术保护目的而在并购交易后终止与目标公司的合作,例如,Meta收购Scale AI后,Scale AI即面临丧失谷歌、微软等大客户的风险,原因是这些客户会与Scale AI共享包括专有数据和产品原型在内的特定商业机密,随着Meta取得Scale AI 49%的股份,谷歌、微软等公司担心Meta会借此洞悉其商业战略和技术蓝图。同时,还应关注第三方合同中涉及的保密义务、第三方知识产权和个人数据相关义务,如果目标企业在对人工智能工具的使用过程中违反这些义务,可能会使其承担相应的法律责任,尤其需要关注没有责任上限或者上限过高的商业合同。
5. 劳动方面
为降低第三方知识产权侵权、泄密、个人数据泄露和网络安全问题的风险,应核实员工在使用人工智能工具及其识别和防范相关风险方面的培训是否充分。同样,确保员工在使用和披露机密信息方面受到法律约束(无论是根据劳动合同还是其他规定)也很重要。
6. 数据保护方面
如果人工智能系统的使用涉及个人数据,应关注目标企业在人工智能技术的开发和使用过程中是否遵守适用的数据保护法律,并对用于人工智能训练的数据来源进行尽职调查,关注数据内容是否涉及个人数据,相关个人信息是否已依照适用法律法规进行匿名化/假名化处理,使用个人数据进行模型训练是否获得了必要授权和同意,以及是否有完善的措施对个人数据和其他敏感信息进行保护。
7. 伦理方面
许多国家的法律可能要求人工智能系统遵守特定伦理标准,因此有必要了解开发人工智能系统所使用的伦理标准或框架。人工智能系统算法的可靠性对于减少训练过程中的偏差、偏见和歧视具有关键性作用。评价前述可靠性需要了解人工智能系统的训练过程、测试程序、已知错误或漏洞,以及目标企业在人工智能开发方面的伦理准则和政策等内容。
在对上述关键风险领域进行系统核查后,买方可以更好确定其需要处理的问题或潜在风险,从而对目标企业的价值与风险做出更准确的判断。
二、降低买方风险的交易文件主要条款
交易文件中完善的交易保护条款对于买方有效管理并购交易中与人工智能领域相关的风险、全面了解目标企业人工智能技术的合规水平意义重大。这些保护条款应涵盖人工智能技术的各个方面。本文将重点讨论交易文件中的如下主要相关陈述和保证条款,后续会陆续讨论其他交易条款。
1. 关键人工智能相关定义
清晰定义人工智能资产,包括模型、训练数据、算法和系统组件等,可以确保交易文件的准确性并避免歧义。这些定义构成了后续陈述和保证条款的基础,需要在全面性和过度包容性(即涵盖非人工智能资产)之间取得平衡,这对于减少谈判摩擦和避免交割后纠纷具有重大作用。
2. 人工智能相关的知识产权及其使用场景
卖方需保证其已全面披露目标企业的关键人工智能资产,例如模型、数据、相关知识产权和使用场景等信息。这些信息对目标企业面临的风险类型具有重大影响。例如,医疗领域使用的人工智能与娱乐领域使用的人工智能在监管和法律责任方面存在本质差异。
3. 人工智能所有权表述
扩展传统陈述和保证条款中有关人工智能资产所有权的表述,不仅涵盖软件,还涵盖与人工智能相关的模型、数据和算法。此外,在与目标企业资产完整性相关的陈述和保证条款中,确保目标企业对该等资产拥有明确的所有权,尤其要强调第三方数据许可协议或通过合作伙伴关系创建的数据的所有权情况(并对没有完整所有权的情形在披露函中充分披露)。
4. 数据使用权和数据质量
在标准的数据使用相关的陈述和保证条款基础上,进一步明确训练人工智能系统所用数据的质量、准确性与合法性。相关条款应涵盖许可、隐私、监管合规及数据来源等问题,以降低后续买方面临的潜在风险与法律责任。
5. 特定业务下的风险
根据具体业务场景量身定制针对人工智能透明度、偏见、准确性及可解释性等问题的陈述和保证。例如,对于金融或医疗等高度监管的行业而言,可解释性是衡量人工智能系统合规性与责任归属的关键因素。
6. 不断演进的人工智能标准
根据目标企业所在管辖区域,可考虑引入对领先框架(例如,NIST人工智能风险管理框架或ISO/IEC 42001)的合规性陈述和保证,以确保目标企业遵循行业最佳实践。
7. 开源风险
针对当下人工智能企业对开源人工智能模型的依赖日益增长,在交易文件中需要加入确保目标企业遵循适用开源许可证的陈述和保证条款,以降低与著佐权(Copyleft)[3]义务或知识产权污染相关的风险,并防止引发与专有许可证和其他开源许可证之间的冲突。
8. 人工智能治理
陈述和保证条款还应涵盖目标企业在人工智能治理方面采取的措施,包括遵守适用的人工智能伦理准则,定期开展人工智能影响评估,以及实施可追踪和记录的人工监督决策流程。健全的人工智能治理体系通常能够降低与因不当部署人工智能系统所引发的伦理与合规风险。
需要注意上述内容并不适用于所有情况,因此需要仔细甄别并根据每笔交易的具体情况审慎制定相关的陈述和保证条款,以确保充分覆盖目标企业人工智能资产所涉及的风险及价值要素。
三、结论
收购人工智能相关企业往往会面临一些非传统的法律和监管风险,从买方角度,需要根据具体交易情况对该等风险通过尽职调查等方法进行有效和准确识别,然后再有针对性地设计交易保护条款,以控制、减少和分配该等风险。即便如此,由于人工智能领域仍然处于快速演变和发展的阶段,与之相关的更多法律法规和监管政策也在相应不断出台和修改,与此等交易相关的合规和风险防控工作将更具挑战性。总而言之,买方通过开展全面的尽职调查并制定严密的交易文件保护措施和机制,可在法律层面更有效地应对人工智能并购交易的复杂性并减少风险的不可控性。
[注]
[1]传染性许可协议(Viral Licenses),一种开源软件许可协议,要求所有基于该许可的软件或代码整合进来的衍生作品,也必须以相同的许可协议公开发布。
[2]Llama 4 Community License Agreement中,商业例外条款(Additional Commercial Terms)规定,月活跃用户(MAU)超过7亿的模型使用者需另行与Meta协商许可,https://www.llama.com/llama4/license/,2025年6月24日最后访问。
[3]著佐权(Copyleft),意指对传统著作权的补充,以示对Copyright的叛逆,是一种利用现有著作权体制来保障用户自由使用作品的授权方式,可以理解为允许他人对授权作品使用、散布、改作,但要求所许可的人对更改后的派生作品要使用相同的许可协议,以保障其后续所有派生作品都能被任何人自由使用。