AI智能体的法律问题透视
AI智能体的法律问题透视
2025年6月,被视为首个真正自主的人工智能体Manus推出全新的Chat模式,并对所有用户免费开放,用户通过登录获取积分可以免费体验Manus的AI对话功能。而值得注意的是,在支持即时问答的同时,用户可无缝链接Manus Agent模式,即Manus可直接执行对话中所涉及的复杂任务,例如问题研究、文档制作、网页设计、代码编程或数据分析。AI智能体(AI Agent)将AIGC应用实现从“回答问题”向“解决问题”模式进行转换,这也是基础大模型能力升级的必然结果。此前笔者在《AIGC产品的生命周期透视(上)》及《AIGC产品的生命周期透视(下)》系列文章中系统分析了AIGC产品数据、代码、大模型等各环节可能面临的法律问题,而AI智能体作为AIGC的进化功能在AIGC产品的基础上将涉及其特有的法律问题,本文将对此进行针对性讨论。
一、AI Agent的技术概念
Agent,即智能体,一般认为它是一种能够感知所处环境,并依据所感知到的信息自主做出决策并执行相应行动,以实现特定目标的实体。这一概念涵盖了软件、硬件以及虚拟系统等多种形式。AI Agent训练已经可以实现在现实世界中进行多模态理解的能力。它为利用生成式人工智能和多个数据源进行训练提供了一个框架。[1]而Anthropic则从另一个角度对智能体进行定义,其指出智能体体现了自主任务导向的工作逻辑:AI Agent由LLM动态地指导其自身流程和工具使用,即智能体在根据任务要求决定执行步骤、使用工具和流程控制上具有极高的自主性。
以Manus为例,“Manus”在拉丁文中意为“手”,象征着知识不仅存在于思维中,还应能通过行动得以实现。这体现了Agent与AI Bot(聊天机器人)产品从回答问题到执行任务的本质进阶。Manus具备执行人类所能完成的智力任务的能力,不仅可以为用户提供想法,更重要的是能将想法付诸实践,真正解决问题。[2]从技术角度来看,Manus的核心工作原理是实例化一台远程的虚拟机沙箱环境,后续所执行的命令、代码均在沙箱环境中运行,在整个会话结束前会一直保留,在这过程中模型可以随时创建目录、读取文件,能做到信息的存储和交互等。[3]具体执行步骤是:第一,依赖于大语言模型的视觉能力获取信息;根据关键词信息调用第三方API,获取搜索结果。如果已经在页面中获得需要分析的关键数据,不会再进行模拟点击。如果没有获得关键信息,则会进入到二级页面进行模拟浏览器点击网页内容、浏览网页内容以及获取网页文本内容。Manus可基于页面的文字进行爬取,获取文本形式的视觉信息。第二,通过代码运行python等程序,创建excel、ppt等文件对数据进行分析和处理。第三,利用大语言模型的视觉能力,通过部署静态前端页面向用户展示成果。在Manus提供的“乔布斯人物分析与网站制作”的示例任务交互页面显示,Manus由虚拟电脑执行了完成任务所需数据检索、分析、开发、测试和生成的流程。
Manus官网提供“乔布斯人物分析与网站制作”示例交互页面
继Manus以后,智能体已经成为AI公司投资和研发的重点,ChatGPT于2025年2月推出深度思考(Deep Research)功能,可以根据用户指令输出复杂问题的研究报告;Anthropic于2025年5月推出Claude 4模型,专注于提升AI执行复杂任务的能力,定位于任务执行引擎和AI Agent系统的核心组件;2025年4月,字节跳动推出扣子空间通用型AI Agent产品,定位于用户的协同办公场所;2025年5月,昆仑万维天工超级智能体APP上线,定位于全球首款基于AI Agent架构的Office智能体手机APP。
二、AI Agent特有的法律问题之数据获取合规性
Google Agents白皮书指出,与大模型所获知的知识仅限于训练数据中包含的内容不同(非联网状态下),智能体还可通过工具接入外部系统获取拓展知识。Agents根据设定的自定义代码或拓展工具,可以处理用户输入的查询需求以获取相关信息并调用API,在Agents无法实时调用API(如时间或操作顺序限制)或调用未暴露到互联网的API时,则可通过在客户端应用程序调用函数管理API执行。
Google Agents白皮书绘制Agent应用中函数调用生命周期序列图
正如美国已有批量的版权人针对AI未经授权使用其作品用于训练数据提起诉讼(相关案例可参考此前笔者《以全球范围AIGC诉讼为例梳理AIGC的侵权认定和权利限制规则》一文),AI Agent自动调用API以获取相应数据或信息将可能面临更严峻的合规问题。在我国司法实践中,互联网平台对依法搜集的数据享有合法权益,非法调用API获取相应数据并进行商业性使用有违公平、诚信原则和商业道德,扰乱了数据市场竞争秩序,涉嫌构成不正当竞争行为。[4]Agent具有极高的自主性,在没有用户明确指示的前提下在其虚拟机中自动执行链接API的操作,如果链接未向互联网公开的API接口,可能涉及绕过数据防护措施、违反robots协议对网页内容进行爬取;通常而言,违反robots协议、破坏或绕过技术保护措施、大量多次异常爬取网页内容的行为均可能面临不正当竞争风险。当然,实践中利用非法爬取的数据是否进行了实质性替代的使用、是否破坏产业生态和竞争秩序也是认定不正当竞争行为的重要考量因素。而AI Agent向用户输出的结果具有任务专一性,其目的通常不是为了实质性替代网页提供的服务,而是对多网页提供的内容进行加工、分析,由此,从实质性替代角度分析,是否应直接将Agent通过算法自主调取API行为定性为不正当竞争行为有待商榷。
除涉及不正当竞争风险外,智能体还可能自动链接API直接调用他人的作品进而涉及著作权侵权风险。近日美国法院在Meta案和Anthropic案中,暂认定AI训练数据使用受版权保护的书籍可构成合理使用。这也与美国在2025年5月美国版权局发布《版权与人工智能报告第三部分:生成式人工智能训练》发表观点相一致,其认为政府干预训练行为为时过早,合理使用制度可以根据个案情况、多因素平衡决定。而我国《著作权法》第二十四条并没有为人工智能训练数据的行为提供直接的权利限制,正如笔者在《以全球范围AIGC训练数据侵权诉讼为例梳理合理使用规则的适用》一文中所述,AI训练数据行为的法律性质目前仍需在三步检验法的框架下个案确定,而AI Agent调用API使用他人作品的行为是否可能构成转换性使用而予以免责也将有抗辩空间(当然以生成内容不与原作品构成实质性相似为前提)。
正因AI智能体能够独立从各种来源收集和处理数据,其运行的过程具有一定的“自主性”,决策过程隐藏在复杂的算法和不断演化的数据集中,导致信息来源缺乏透明度,而平台通常会进行数据来源澄清声明,以避免可能的侵权争议。例如OpenAI声明其基础模型主要使用三个主要信息来源:(1)互联网上公开可用的信息;(2)与第三方合作的信息;(3)OpenAI用户、训练人员和研究人员提供或生成的信息。对于公开可获取的互联网信息,OpenAI宣称只使用可在互联网上自由和公开获取的信息,不会故意获取付费才可获取的信息或从暗网收集数据。[5]Manus在提供的任务示例中也展示了其调用数据的来源,通常为公开社交媒体和网页的数据,如下图所示。
Manus官网提供“乔布斯人物分析与网站制作”示例交互页面
笔者认为,仅使用互联网公开的信息确可以降低侵权风险,但随着智能体输出内容的执行程度越来越高,垂直领域智能体必然在AI Agent市场占据一定地位,而对于垂直领域智能体而言,提高输出内容的权威性和可信度才是智能体产品真正的市场竞争力,由此,与第三方专业数据库合作从而保证输出高质量内容将可能是更优解。
三、AI Agent特有的法律问题之生成内容可版权性
AIGC版权归属问题本身具有一定争议,美国版权局一直拒绝对AI生成作品进行版权登记,理由包括绝对的AI自动生成内容由机器生成,而只有人类创作的作品才能受到版权法保护,以及人类对AI生成内容缺乏创作性的控制(输入相同的提示词,生成内容却大相径庭)等。美国版权局在2023年3月准许《玫瑰之脸》(Rose Enigma)作品版权登记,但登记范围仅限于“申请材料中清晰可见且可与申请人放弃权利主张之外的、与非人类表达相区分的、未经修改的人类绘画作品”。2025年1月,美国版权局准许《一块美国奶酪》(A Single Piece of American Cheese)作品版权登记,但登记范围仅限于构成完整图片的元素(即AI生成的部分材料)的“排列组合”(可理解为汇编作品)。目前,中国法院在AIGC的版权认定上主要考虑用户的独创性智力投入因素,在“春风送来了温柔”案中,北京互联网法院认定用户通过AI工具四轮修改形成的图片具有审美意义,具备智力成果和独创性要件,可以认定为作品。[6]但在“蝴蝶椅子”案中,张家港市人民法院认为“对于主要由人工智能绘图软件自动生成的内容,不应当认定构成作品……用户首次输入提示词,即可生成体现提示词主题和要素的图形,这其中人工智能对文字到图形的生成,仍然起到重要作用,尚不能体现对图形的充分独创性”,在本案中AIGC生成内容没有被认定为作品。
笔者认为,主流国家普遍认为机器无法成为人而具有版权法意义上作者的身份,如果用户对智能体输出的成果主张权利,考虑到人类对相关内容生成的控制程度进一步降低,由此相较于AIGC产品而言,AI Agent生成内容可被版权法保护的可能性更低。例如用户要求Manus生成“乔布斯人物分析与网站制作”,其自主执行了搜索、浏览、创建文件、生成并测试网站的过程,生成的网站中包括自主选择的图片和文字以及子页面设计,用户可以在此基础上要求Manus对生成的网站进行修改,在这其中用户对AI Agent成果的贡献程度较低,如适用美国版权局的逻辑,则用户在生成AI Agent成果的过程中没有体现人类表达、选择和编排,可能较难被认定为版权法意义上的作品。但实际上,智能体生成成果的价值却相较于通用AIGC更高,用户使用智能体的个性化投入也不一定完全减少,由此,智能体成果的可版权性判断标准需要考虑更多因素,例如智能体为不同用户生成相同成果的概率、智能体生成侵权的任务成果的概率、AI智能体的工具属性等。
四、能否直接使用开源大模型研发新的大模型?
AI Agent具有高度的自主性,相较于传统的人工智能而言,人类对于生成结果的可控性进一步降低。尽管它可能会提供非常简单的过程以解释结果的生成,但隐藏在其结论背后的产生过程仍然是算法运行的结果。这种自动决策过程使得结果具有高度的不确定性,即使AI Agent生成了侵权的内容,被侵权一方往往难以确定错误的具体来源,从而使得寻求补救或分配责任变得复杂。在人工智能主要被视为工具的时代,责任归属通常较为明确——使用工具的个人或实体需对其行为负责。然而,以Manus为代表的AI Agent打破了这种简单的责任归属认定。如何在用户与开发者划分责任的归属,需要回归到现有法律框架和责任划分体系进行探讨。平台作为AI Agent的重要载体,对于AI Agent生成结果侵犯他人权利的问题,AI Agent平台是否应当承担责任,应当承担何种类型的责任,其注意义务的限度如何界定等是亟待解决的关键问题。
从当前的司法案例来看,现有的两例“人工智能平台侵权案”为我们提供了参考。首先,要根据Agent平台实施的具体行为区分侵权责任的类型。例如在(2024)浙0192民初xx号案(以下简称“浙江案”)中,法院对平台的身份进行了认定。法院认为某智能科技有限公司通过某AI平台应用生成式人工智能技术向用户提供在线AI图像生成、LoRA模型训练等生成式人工智能服务,因此,某智能科技有限公司属于生成式人工智能服务提供者。平台作为运营者,并未参与到用户实施的上传参考图片、发布和分享生成图片的行为之中;从主观方面来看,亦缺乏证据证明平台在用户的涉案行为中,与用户之间存在共同提供作品的意思联络,因此,平台不是网络传播内容的提供者,未直接实施受信息网络传播权控制的行为,不构成直接侵权,应当认定构成信息网络传播权的帮助侵权行为。而在(2024)粤0192民初xx号案件中(以下简称“广州案”),法院认为平台的行为构成直接侵权。平台通过用户提供的关键词为用户提供侵权内容,意味着平台提供的模型可以直接生成与案涉角色实质性相似的图片,构成对原作品复制权和改编权的直接侵权。基于前述案例可知,要在个案中具体考量AI Agent平台实施的具体行为,以区分平台应当承担的责任类型。其若直接生成了侵权的内容,则可能构成直接侵权;若侵权行为系用户实施,平台作为人工智能服务提供者,若未尽到合理的注意义务(难以以避风港原则进行抗辩),可能要承担帮助侵权的责任。
如何界定AI Agent平台的注意义务范围是另一个关键问题。区别于一般的网络服务提供者的注意义务(“通知-删除规则”),对于AI Agent而言,平台注意义务的界定应综合考量AI Agent的服务性质、发展水平、被诉侵权事实的明显程度、平台营利模式、可能引发的侵权后果、可以采取的必要措施及其效果、侵权责任承担对行业的影响等因素,将平台注意义务确定在与其信息管理能力相适应的程度。例如在“杭州案”中,法院首次明确指出,生成式AI服务提供者兼具“平台管理者”与“内容生产者”双重身份。平台作为生成式人工智能服务提供者,不能仅仅依据避风港原则进行抗辩。法院认为被告虽然已经采取关键词过滤等措施,停止生成相关图片,并达到了一定效果。然而,当向平台输入与案涉角色相关的其他关键词时,仍可产生实质性相似的图片。因此,被告应进一步采取关键词过滤等措施,防范其服务继续生成与案涉角色作品实质性相似的图片,防范程度应达到:用户正常使用与案涉角色相关的提示词,不能生成与案涉角色作品实质性相似的图片。更进一步的,在“广州案”中,由于平台构成直接侵权,法院明确平台的注意义务边界应以《生成式人工智能管理暂行办法》对于生成式人工智能服务提供者的要求进行判断,包括但不限于是否建立了投诉举报机制、是否进行了潜在风险提示以及是否进行了显著标识等。
综上所述,需要在实践中进一步考察AI Agent应用的发展阶段以及平台的管理能力,追溯AI Agent生成侵权内容的来源,查明平台在其中的参与度,以此为基础界定其注意义务,以便合理分配各方主体责任。
五、AI Agent特有的法律问题之法律主体资格
即使AI Agent具有高度的自主性,其在法律上的地位仍然是“物”或“工具”等客体。有观点认为,如果一个AI Agent能自主评估交易风险、与对方Agent进行谈判,进行合同签署,实施法律行为等,我们是否需要考虑在特定、严格限定的领域内,承认它具有某种“缔约代理资格”?换言之,可否因为AI Agent的高度自主化而承认其在一定程度下作为“法律主体”而存在?
基于人类的主体价值的哲学视角,若赋予非人类主体以法律上的主体资格,需要有充分的理由。以民法当中的“法人”制度为例,法人在民法中也是民事主体,是为了实现让其承担责任、降低交易的成本和风险的目的,本质上仍然体现了人的目的性。《民法典》中对于法人制度的拟制有着充分的理由,很显然,在AI Agent发展的起步阶段,其难以类比法人制度而拥有法律主体的资格。即使要探讨其在特定场景下的“有限法律角色”,也要充分考量实践中Agent的发展程度、技术水平,考量其是否具有享有权利或承担责任的功能等,也不能损害人类的主体性地位,不扰乱现有法律秩序的稳定。
现阶段,基于“人的主体价值”的基本哲学理念,以及AI Agent发展的现状,赋予其法律主体资格面临重大挑战。因此,在坚持“工具论”的前提下,对于AI Agent完成的指令或决策、生成的内容,该如何进行法律上的定性以及责任的承担是需要进一步研究的问题。
“知识产权法是技术之子”,以Manus为代表的AI Agent爆火,为AI进一步发展赋能,实现了AI技术再次飞跃,但还需调整法律制度以适应新时代下技术的变革,以法律制度为技术发展“保驾护航”。
[注]
[1]李飞飞等:Agent AI:Surveying the Horizons of Multimodal InterAction.
[2]Manus百度百科:https://baike.baidu.com/item/Manus/65463546.
[3]阿里云开发者,《Manus的技术实现原理浅析与简单复刻》,https://mp.weixin.qq.com/s/SSO-w6FF4mBm2zrXY5RzkA.
[4]广东省高级人民法院,广东高院终审宣判首例涉数据抓取交易不正当竞争纠纷案,https://mp.weixin.qq.com/s/sD2FQEpOCH6ZfDxRzOPJug.
[5]https://help.openai.com/en/articles/7842364-how-chatgpt-and-our-foundation-models-are-developed.
[6]最高人民法院,因为一张AI生成的图片,他告到了法院!一系列问题摆在法官面前……https://mp.weixin.qq.com/s/NadPYQewzsIIDLcKoGUn9g.