AI和数据驱动医药开发:制度适用与成果保护
AI和数据驱动医药开发:制度适用与成果保护
近五年来,国家和行业层面密集发布了若干规划、意见、指引、方案,正在不断释放信号,积极推动使用人工智能技术赋能新药研发和医疗服务。与此同时,数据要素已成为新的生产要素。国家和行业层面正在不断注入动力,从制度、技术、数据等维度,积极促进医药领域数据要素价值释放。2022年12月发布《关于构建数据基础制度更好发挥数据要素作用的意见》(“数据二十条”)以来,数据相关纲要、意见、计划、方案如雨后春笋般涌出。例如,《“数据要素×”三年行动计划(2024-2026年)》明确提出了“数据要素×医疗健康”的概念,《医药工业数智化转型实施方案(2025-2030 年)》明确提出要整合释放医药数据要素价值。
目前,AI的力量已被普遍重视,其从纷繁中理出头绪、在烟海中找出因果的能力正在不断被验证;数据的价值已被普遍认可,训练、验证与优化AI模型所依赖的数据质量也正在不断提高。与此同时也应注意到,AI和数据行业的高速发展在法律领域产生了诸多新的议题,在现有制度的适用、相关成果的保护方面带来了新的挑战。本文拟在当前政策机遇期与制度探索期的关键阶段,为相关主体在推进AI应用、释放数据价值时控制法律风险、理清权责边界、保护相关成果提供有益参考。
一、AI和数据的全过程赋能
医药(尤其是化药和生物药)开发通常可包括靶点识别、药物发现、临床前研究与临床试验,并可延伸至药物上市与上市后监测等环节,整体上流程长、成本高、成功率低。有数据显示,传统药物开发平均耗时12-15年,耗资26亿美元。[1]不仅如此,药物开发的每个环节还有各自的痛点。例如靶点识别方法依赖试验科学,药物发现可能涉及多学科交叉且试错性强,临床前研究中动物实验有局限性,临床试验中患者招募低效,上市申报效率低、商业分析滞后,上市后监测难等等。
目前,AI和数据正以前所未有的深度和广度渗透到医药研发的每一个环节,通过数据驱动决策、自动化流程、跨领域知识整合,AI和数据正在不断破解医药开发的系列难题,并已有大量成功案例。例如:
✔ 在靶点识别方面。英矽智能旗下PandaOmics平台在使用大量组织纤维化相关的组学和临床数据集训练后,通过深度特征合成、因果推断及新型通路重建等一系列流程,最终将TNIK确定为最具潜力的抗纤维化靶点[2];Insitro使用机器学习技术构建了一个药物发现平台,并基于此发现了几个新的基因靶点[3]。
✔ 在药物发现方面。Benevolent AI在新冠疫情期间利用其AI知识图谱分析了现有药物数据,48小时内确定已上市的类风湿关节炎药物巴瑞克替尼可用于新冠治疗。英矽智能通过PandaOmics筛选得到了CDK20作为HCC治疗靶点,进而对接到Chemistry 42平台自动生成小分子抑制剂并选择了7个化合物[4]。
✔ 在临床前研究与临床试验方面。CURATE.AI 基于患者的基因特征、影像学结果和生化指标等多维度数据,动态生成个性化化疗方案。在一项针对晚期实体瘤的临床实验中,该平台推荐的剂量调整建议有73.5%被采纳,医生依从率达到97.2%,显著减轻了相关毒性反应[5]。
✔ 在药物上市与上市后监测方面。2025年5月,美国FDA部署生成式 AI 工具,基于过往数万份审评报告,为 FDA专家提供智能摘要、风险预测与合规性校验等,将新药审评周期缩短 20-30%,减少人工处理重复数据的时间消耗。
由上可见,AI和数据“共舞”,正在深刻改变传统医药开发模式,成为医药开发的革命性工具。有数据显示,整体而言,AI和数据通过深度赋能并重塑医药研发的全过程,可使得单药研发成本降低30-50%[6],进入临床试验的化合物成功率从传统的10%提升至15-20%。在市场规模方面,招行研究数据显示,预计2028年全球AI制药市场规模可达56.2亿美元,前景广阔[7]。
此外,中药的理论基础和逻辑、中药复方的获得方式与西药存在本质不同。中药复方的药物组成成分、反应机理、药效作用机制更是极为复杂,长期以来大量因果关系无法充分明确。由AI和大数据的特点可以预见,其在解析中药复方、识别活性成分、明确作用机理、证明用药可靠性等方面必将发挥越来越大的作用。
二、制度保障体系
在AI和数据行业高速发展的同时,如何适用当前已有规定并不断完善制度保障体系十分关键。本文主要关注个人信息保护框架和医疗领域数据安全规范体系。
(一)个人信息保护框架
个人信息是以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人的各种信息。医药开发场景下的AI和数据与医疗健康信息密切相关,并涉及临床病历、基因组、医学影像、临床实验、真实世界数据等。在讨论对医疗健康信息的商业利用和流通场景时,我们通常将个人信息区别于隐私,并关注敏感个人信息[8]。
围绕敏感个人信息具有的可识别性、动态性、场景依赖性、可聚合性等特点,我国通过《民法典》《个人信息保护法》《网络安全法》等一系列规范性法律文件、要求、指南,逐步在医药领域建立起严格的个人信息保护机制。具体主要体现在以下四个方面的要求:
1、最小必要与知情同意
收集患者个人信息时应遵循“最小必要”原则,即仅收集为实现特定目的所严格必需的信息,并采取严格保护措施。不过值得注意的是,所谓的最小必要原则与确保模型的公平性/非歧视性存在潜在冲突,由于缺乏用于偏见测试的数据,而无意中训练出一个具有歧视性的模型的可能性是存在的。
同时,根据《个人信息保护法》等法律法规,相关主体在收集和处理患者个人信息时应显著、清晰地向个人说明信息处理的目的、方式、范围及可能的影响。除一般告知事项外,还须特别告知处理敏感信息的必要性及对个人权益的影响。这是充分保证患者知情权的要求。
另外,处理敏感个人信息应当取得个人的单独同意,若有规定还应以书面形式进行。然而,过于频繁的同意容易引起患者的疲劳。有数据显示,用户若完全阅读一年中所使用网络服务的隐私政策,平均需花费244小时[9]。笔者相信实践中大量用户都不会太细致的阅读相关政策或授权条款,使得相关过程更像“选择退出(Opt-out) ”模式(数据处理者可以先行处理,但为用户提供清晰、便捷的拒绝或撤回同意的渠道)。
值得注意的是,对患者个人数据的在后使用需求往往超出在先同意范围,而此时难以获得二次同意。因此泛知情同意、动态知情同意等概念被提出。其中,泛知情同意通常指患者同意将其提供的生物样本及相关数据用于未来一系列尚未明确规定的、特定类别的研究,其核心在于参与者授权一个受监管的体系在未来代表他们审查和批准符合既定范围的研究项目,而无需在研究样本每次被使用时都重新联系参与者获取同意。泛知情同意在美国被引入用于可识别的个人信息或可识别的生物样本的二次研究;西班牙对生物样本和相关信息也引入了泛知情同意。[10]
我国《涉及人的生物医学研究伦理审查办法》第三十九条规定,“以下情形经伦理委员会审查批准后,可以免除签署知情同意书”,其中第(二)项指出“生物样本捐献者已经签署了知情同意书,同意所捐献样本及相关信息可用于所有医学研究的”。上述条款为泛知情同意在实际操作中的可行性提供了政策依据。不过《个人信息保护法》仅规定了两类可不告知的例外情形:法律法规规定应当保密或无需告知的,以及紧急情况下无法及时告知但事后仍应补充告知的情形。这体现出我国目前仍坚持以“明确知情同意”为基本原则。
2、降低可识别性
“可识别”通常指能够直接或间接关联到特定自然人。然而这一概念的解释空间较大,产生了如何才算是“去识别化”的问题。美国《健康保险携带与责任法案》(HIPAA)规定了两种去识别化的方法:一是专家裁定法,由具备统计学或科学知识的合格专家通过评估数据集的重新识别风险,确认数据去识别化是否达标。二是安全港法,从数据集中移除法定的18项个人信息,一旦被移除,数据即可被视为去识别化信息,不再受限于严格的隐私保护规则。GDPR则采用“积极的入侵者测试”,考虑一个“积极的入侵者”采用可能使用的所有手段时,重新识别的可能性是否合理地高。
我国《个人信息保护法》第73条则明确定义了“去标识化”(在不借助额外信息时无法识别个人)和“匿名化”(处理后的信息无法识别特定个人且不可复原)。后者的可识别性更低,因为根据《个人信息保护法》第4条,匿名化处理后的信息不再属于个人信息,可不受个人信息保护规则的约束。由于医疗研究领域较为特殊,相关主体需要根据特定个人信息使用场景及需求,采取合理有效的脱敏方法。
3、可携带权
根据《个人信息保护法》第45条,个人有权向个人信息处理者查阅、复制其个人信息,并有权请求将信息转移至其指定的其他处理者,符合国家网信部门规定条件的,个人信息处理者应当提供转移的途径。上述内容通常被称为“可携带权”。在医疗领域,保障并实现患者查阅病历、在医疗机构之间转移数据并非易事,这需要在进一步统一医疗数据标准和格式,打造更完善的数据导出工具等。
一个问题是,患者对匿名化后的医疗数据是否仍有可携带权?有观点认为,对于匿名化后的非个人医疗数据,患者不应再享有可携带权。可携带权的技术实现难度和成本远高于复制权,需要平台间的互操作性。在个人数据的可携带权标准尚不明确的情况下,不应贸然将其扩展到非个人数据领域。[11]
4、被遗忘权
《个人信息保护法》第47条就被遗忘权作出了明确规定。一般来说,医药医疗机构需要做好所收集、持有的个人信息的周期管理,一方面,对于患者明确撤回同意或要求予以删除的,必须及时删除;另一方面,属于应主动删除情形的,应积极主动予以删除。撤回同意仅对未来生效,一般不具溯及力。
不过,在医药研发领域强制实现“删除”可能存在一定的技术困难,例如已用于模型训练的数据难以完全删除,因为删除可能会影响模型本身的性能。因此,实践中部分开发者可能会采取建立数据标记与隔离机制的方法,对需删除的数据进行逻辑删除并限制访问,一定程度上也能达到“遗忘”个人信息的目的;在临床试验中,也可以与患者沟通,酌情设置数据保留期,并在到期后按程序删除相关敏感个人信息。实践中,开发者还可通过区块链智能合约预设数据使用条件、目的和存续期限,实现授权自动化管理。[12]
(二)医疗领域数据安全规范体系
早在2016年,“健康医疗大数据” 就已经被定位为“国家重要基础性战略资源”。在一系列方针政策的指引下,围绕着《数据安全法》《网络数据安全管理条例》等法律法规,结合医疗医药领域的行业特色,我国监管部门、标准研究部门等已经逐步形成并建立了一套医疗领域数据规则体系。该体系贯穿了医疗数据的完整生命周期,本部分将从分类分级管理、数据采集与处理、数据共享、数据存储与传输、可信数据空间,以及模型安全,来详细阐述我国如何构建这一全方位的安全规范体系。
1、分类分级管理
按照来源、特征和关涉到的利益不同,《数据二十条》将数据分为公共数据、企业数据和个人数据。《信息安全技术 健康医疗数据安全指南》则将医疗健康数据分成六类五级[13],并提出了保护措施建议。对医疗健康数据实施分类分级管理,能够将保护资源更精准地配置于风险较高的数据类别,使安全措施与其敏感程度相匹配,在保障安全性的同时提升数据管理效率。需要注意的是,如果同一批数据中包含不同安全级别的数据项,则整个数据集的安全防护等级必须按照其中最高级别的数据项来执行。[14]
2、数据采集与处理
如数据提供方通过非法手段采集数据,则下游整个数据流都可能被视为“污染数据”。一旦源头存在瑕疵,下游企业在采购、加工、开发和使用过程中均可能需要承担侵权责任。因此,数据来源的合法性是保障全流程合规的基础。在数据处理方面,除上文提及的去标识化外,数据处理主要围绕数据质量以及安全保障措施展开。
关于数据质量。在当前市场与政策双重压力下,企业所承担的算法安全与数据准确性义务日益加重。在此背景下,可从两方面重点开展工作:其一,应在数据源头阶段严控质量,遵循“垃圾进、垃圾出”(Garbage-in, Garbage-out)的技术逻辑,认清数据质量对AI大模型的关键影响;其二,应密切关注并严格遵循国家相关部门发布的数据质量管控要求,确保在数据质量管理功能的全过程符合国家规范。
关于保障措施。根据《数据安全法》《个人信息保护法》《信息安全技术 个人信息安全规范》《人工智能科技伦理管理服务办法(试行)(公开征求意见稿)》等法律法规与技术标准,在整个数据生命周期中,处理者应做到如下几点:A.加密:采取实施符合技术标准的加密并将数据访问权限严格限制在最小必要范围内;B.机制:建立全面的数据安全风险评估与应急响应机制;C.预案:制定具备可操作性的个人信息安全事件应急预案和人工智能科技伦理风险控制方案;D.监测:持续加强风险监测、定期开展数据安全风险评估;E.补救:一旦发现数据安全缺陷、漏洞等风险须立即采取补救措施防止危害扩大;F.处置:如发生数据安全事件应当迅速启动应急响应机制,及时通知相关方并向主管部门报告。
3、数据共享
在数据共享环节,不当行为通常表现为越权获取与超范围使用。数据共享虽有助于实现价值,但若未配套合理的控制机制,相关主体可能绕过“可用不可见”“可用不出域”等限制非法获取数据。加之对数据进行处理后数据的内容和形式往往发生不同程度的变化,若操作未全程有效留痕,事后追责将极为困难。因此,为确保数据安全,通常需设置合规性条款、安全程序条款、保障措施条款、赔偿条款、保密条款等确保交易相对方遵守个人信息相关法律法规及交易方的隐私政策与惯例、数据予以充分保护,并约定合同终止后数据的处理、销毁或归还等事宜。[15]
4、数据存储与传输
数据安全存储是我国法律法规及技术标准中的重点要求。医疗健康数据在存储过程中,须落实加密保护与访问限制等基本安全措施。存储主体应依据分类分级管理制度,建立并持续维护与数据级别相适应的存储安全管理机制,重点包括:实施加密保护与严格的权限控制;建立数据备份与恢复机制,推行异地容灾备份;在数据保存期限届满时依法依规进行销毁等。
随着数据流通需求的增长,传输链路日趋复杂,潜在风险包括传输工具或系统自身的安全漏洞、未实施有效加密、缺乏具备约束力的传输协议,以及防火墙或入侵检测等防护措施的缺失。为此,必须从技术、规则与问责机制多方面协同保障传输安全与效率:重要医疗数据出境须依法通过安全评估与审批;传输过程中需采取加密机制并完整记录日志,以支持实时监控与事后追溯;同时应部署防火墙、入侵检测等安全措施,并通过协议明确权责。
5、可信数据空间
近年来,在国家政策推动下,可信数据空间建设进入快速发展阶段。2025年4月29日,国家药监局信息中心重磅发布“数据要素×药品监管系列行动”,将携手医药企业、信息化企业、平台企业等共建药品可信数据空间。2025年7月4日,在2025全球数字经济大会数据要素发展论坛期间,北京市政务服务和数据管理局发布了第一批21个可信数据空间储备项目,包括4个医疗健康领域项目。目前,上海、北京、广州及大湾区等地已率先落地多个医药医疗类可信数据空间。
可信数据空间通常是指一种基于共识规则,联接多方主体,实现数据资源可信、安全共享和流通的基础设施。通过隐私计算等技术,构建了“数据可用不可见、用途可控可计量”的新型数据基础设施。该模式实现了数据所有权与使用权、经营权的分离,允许多方在不转移原始数据的情况下协同计算,从而在确保安全合规与释放数据要素价值之间找到平衡。
“安全”“可信”是可信数据空间的重要特征。对于可信数据空间运营者而言,其对网络平台负有安全保障义务,包括身份核实、数据安全、交易合规等,并需保障技术可信、制度可信、主体可信、数据可信、流通可信、应用可信。其不仅需依托智能合约、区块链、数字水印等技术手段保障合同履行,还应积极参与制定数据共享与利用的规范体系,对供需对接、合同协商与签订、数据交付、清算审计等全流程行为进行约束,从而规范数据流通秩序、明确各方责任。[16][17]
6、模型安全
人工智能技术具有天然的“黑箱”特性,往往难以清晰呈现其决策逻辑,进而影响人们对模型准确性的信任。在医药医疗等高风险领域,一旦模型不可靠,可能导致重大人身伤害和经济损失。人工智能模型存在多类安全风险,包括可解释性不足、偏见与歧视、鲁棒性较弱、易被窃取和篡改、输出不可靠以及对抗攻击等。
今年,美国FDA发布了《使用人工智能支持药品和生物制品监管决策的考量》,欧洲药品管理局(EMA)网络数据指导小组(NDSG)发布了《2025-2028年工作计划 药品监管中的数据与 AI》。我国则已发布《人工智能安全治理框架》《人工智能安全标准体系(V1.0)》《人工智能科技伦理管理服务办法(试行)(征求意见稿)》等,聚焦人工智能模型算法的安全风险控制。相信模型安全将继续成为全球医药监管部门重点关注的事项。
三、法律关系与权责安排
随着AI和数据相关软硬件技术的突飞猛进,与医药研发的不断结合,如何清晰界定相关结合模式下各方关系和权责安排,是决定相关市场能否持续健康发展的两大核心议题。实践中,AI和数据与医药开发的结合模式多种多样,常见模式包括技术委托、合作开发以及技术许可与供应。
✔ 在技术委托模式下,AI企业通常仅参与药品研发的特定环节(如靶点筛选或临床试验数据分析),医药企业支付价款获取技术服务。
✔ 在合作开发模式下,药企和AI研发企业共同研发药物,均较为深入参与研发合作,而并非仅仅是一方委托另一方完成特定工作的合作关系。
✔ 在技术许可与供应模式下,技术许可与供应则表现为AI企业作为技术提供方,向药企输出标准化软件、定制模块或SaaS服务,药企自主使用工具辅助研发,双方呈现单向服务特性。
与上述模式相关,各方在相关业务中还可能涉及数据许可/转让合同关系、有关数据治理的承揽合同/技术服务合同关系、与可信数据空间运营方等主体之间的中介/委托合同关系等。
《民法典》合同编针对各类典型合同设置了任意性与强制性规范,笔者认为可依据《民法典》第467条第一款类推适用与相关模式“最相类似”的一类或几类典型合同相关规定,进而就可以比较清楚地了解在进行权、责、利的安排时有哪些规则是合同不言自明的,有哪些规则是与民法典冲突、需要在合同中特别约定的。
在实践中,相关合同需要关注的重点问题包括成果归属、数据权益、算法风险、责任分配等,并在整个交易中通过多个条款平衡相关利益、合理分配风险。例如:
✔ 在成果归属方面。药企倾向于拿到更多的成果权益,但根据各方贡献会有所区分。例如,双方可以约定AI企业不享有所有权,但享有特定范围的使用权,并在药物上市后按比例分享收益。又例如,AI企业可能希望对于AI平台技术享有权利,同时药企为了保证竞争利益可能在合约中约定不竞争条款等。
✔ 在数据权益方面。当前数据权益的法律属性尚未完全明晰,虽无法像技术秘密一样具有明确的法定内涵,但可通过协议对其权属、使用方式和限制、使用范围、保密等方作出清晰安排,防范超范围使用与合规风险。
✔ 在算法风险方面。对于AI算法中存在的安全风险,由于技术企业对于模型和算法的控制和了解能力更强,并且提供主要的算法支持,因此通常对于该风险承担主要责任;而医药企业作为该算法的调用和使用者,也需要承担相应的合理使用和风险监督义务。
✔ 在责任分配方面。如果出现诸如个人信息泄露、重要数据违规出境、数据质量不符合标准等问题甚至损害,需要根据过错及因果关系在两者间进行分配责任。实践中,若数据提供方交付的数据或接口未满足约定或通用的兼容性标准,则可能被认定为构成产品瑕疵。[18]
四、对成果的保护路径
AI和数据与医药研发的结合实践中主要产生三类成果:一是利用AI技术获得的医药研发成果,如新发现的化合物;二是在研发过程中形成的AI技术成果,如新算法、模型或软件工具;三是数据,包括初始数据及不断生成的新数据。
1、关于医药研发成果和AI技术成果
对于医药研发成果的保护路径选择与传统医药成果基本一致。需要注意的是在专利保护方面,前世界各国的专利制度普遍要求发明人必须是自然人,AI 本身通常无法被列为专利发明人,但也有例外做法。此外,主流观点坚持人工智能生成内容(AIGC)并非当然不是专利法保护的客体,但需要说明人类的贡献。如果人类需对发明做出实质性贡献,即将 AI 定位为辅助工具,而非独立的创造主体时,人工智能生成内容(AIGC)可能具备可专利性。
对于医药相关AI技术成果,应根据其具体表现形式选择相应的知识产权保护方式:若体现为计算机程序,可通过软件著作权保护其具体代码表达;若构成具有技术效果的算法相关技术方案,可尝试申请专利,但需要重点判断是否属于被排除在专利保护客体之外的“智力活动的规则和方法”。具体而言,相关申请必须满足以下两项核心要件:其一,发明内容不得属于智力活动的规则或方法;其二,必须构成一个完整技术方案,即通过遵循自然规律的技术手段解决技术问题并产生技术效果。
2、关于数据
AI和数据与医药研发的结合伴随着数据交易、数据治理、数据运营,并在此过程中不断产生新数据。来自经济学和公共管理领域的学者大多认为《数据二十条》已对数据分类和管理提供了相对清晰的指引,无需过度纠结于权利性质的争论。但是,如果不确定数据在法律上的权利性质和内容,在很多场景下就无法完全清楚交易的标的具体是什么、如何定价、按照何种路径进行交易和运营、如何获利、如何治理、会有何种责任、新的数据权益如何划分等等。
对于数据的权利性质,申卫星教授则提出可采用“数据所有权-数据用益权”的二元权利结构,其中数据用益权可作为底座承载“三权分置”。此外,当前理论与实务界的主要观点还包括所有权说、知识产权说、新型财产权说等。第一种观点主张数据应类比物权,赋予主体以所有权及相应的占有、收益、处分和使用的权利;第二种观点则认为数据宜纳入知识产权框架进行保护;第三种观点提出应设立一种新型财产权。
笔者认为,当前相关单位和个人选择以商业秘密路径看待并保护其数据,不仅具有现实可行性,也是一种务实且合理的策略。[19]首先,《数据二十条》中的“三权分置”理念可在商业秘密框架内实现。其次,对于数据采用商业秘密的保护方式不妨碍数据的利用与流通。再次,数据与商业秘密具有高度相似性。例如,对数据进行处理后数据的内容和形式往往发生不同程度的变化。而根据我国最新的司法实践,如果被诉侵权人实际使用的信息系在涉案商业秘密信息基础上修改、改进而来,即便存在一定差异甚至完全不同,亦可能构成侵权。由此可见,商业秘密制度兼具体系性与延展性,在确权、转让、许可、侵权等环节都与数据保护有深度的适配性。
同时值得注意,最高人民法院于2025年8月28日首次发布了数据权益司法保护专题指导性案例(第262-267号),可见人民法院正在通过一系列案例适用《民法典》《反不正当竞争法》等,在个案中保护、平衡各方的数据相关权益,这也给数据权益保护提供了更多路径。
结语
AI和数据正以前所未有的速度重塑医药开发范式。从靶点发现到药物上市,AI和数据不仅提升了研发效率、降低了成本,更在制度探索与政策支持的推动下,逐步构建起一个新的技术与治理生态。然而,技术的迅猛发展也对法律框架、伦理规范与权责界定提出了更高要求。在制度尚未完全成熟的当下,相关主体更需平衡价值释放与风险防控。面向未来,唯有在数据供给、技术创新与制度机制之间实现良性互动,方能真正实现“智启新药、济世惠民”的长远目标。
[注]
[1]参见:https://mp.weixin.qq.com/s/pdHte4xQ7RR5osefKM46_g.
[2]参见:https://www.cell.com/trends/pharmacological-sciences/fulltext/S0165-6147(24)00090-7?sessionid=;https://mp.weixin.qq.com/s/58CXSrVa-wigjVaD2yEIoQ.
[3]参见:https://mp.weixin.qq.com/s/OyqBcJATKkeX1H0KwPHzbw.
[4]参见:https://mp.weixin.qq.com/s/vEECSj-kx37yy6gTllP5rw.
[5]参见:https://www.nature.com/articles/s41698-025-00835-7.
[6]参见:https://mp.weixin.qq.com/s/AMOSALWZO_8YbDeDUEuG0Q.
[7]参见:https://mp.weixin.qq.com/s/UNwYAkYsZu8Y5vhgGgarfg.
[8]参见:《个人信息保护法》第28条第一款:“敏感个人信息是一旦泄露或者非法使用,容易导致自然人的人格尊严受到侵害或者人身、财产安全受到危害的个人信息,包括……医疗健康信息……”。
[9]参见:范为.大数据时代个人信息保护的路径重构[J].环球法律评论,2016年第5期。
[10]参见:赵励彦、张玉梅、刘瑞爽.生物样本库泛知情同意在中国的实践与思考[J].医学与哲学,2023年第16期。
[11]参见:中国政法大学民商经济法学院龙世铭《论医疗数据的权利配置》,《政法学刊》2025年第1期。
[12]参见:葛伟军,方懿.区块链智能合约下加密数字藏品的法律属性与内生风险[J].上海大学学报(社会科学版),2023年第2期。
[13]六类是指:个人属性数据、健康状况数据、医疗应用数据、医疗支付数据、卫生资源数据、公共卫生数据。五级是指:可完全公开、可在较大范围内供访问、可在中等范围内供访问、可在较小范围内供访问、仅在极小范围内且在严格限制条件下供访问。
[14]参见:路万里.健康医疗大数据分类分级及安全策略[J].网络安全技术与应用,2024年第12期。
[15]参见:程啸. 数据权益与数据交易[M]. 北京:中国人民大学出版社, 2024. 476-477。
[16]参见:可信数据空间发展联盟:《可信数据空间建设及应用参考指南(V1.0)》。
[17]参见:包晓丽.可信数据空间:技术与制度二元共治[J].浙江学刊, 2024年第1期: 第89-100页。
[18]例如,在三维数据服务合同案中数据提供方未按照找遍文件提供特定格式的文件,导致未能满足数据使用方的数据服务应用需求,因而认定存在产品瑕疵。参见浙江省杭州市中级人民法院(2023)浙01民终2613号民事判决书。
[19]参见:闫春辉,《破局之道丨可信空间下的数据交易运营(一):权责边界篇》。文章链接:https://www.zhonglun.com/research/articles/54278.html