人工智能与金融科技监管
人工智能与金融科技监管
2020全球人工智能大会上,中国人民银行科技司原司长陈静先生指出,人工智能应用很有希望将金融风险预警能力提高到崭新的水平,一定程度上说明了人工智能技术对金融科技发展的意义。作为新一轮科技革命和产业变革的重要驱动力量,人工智能技术与金融业的结合是金融科技发展的大势所趋,亦将显而易见地对未来的金融发展产生深远的影响。在金融科技实践中,人工智能技术已经在多个领域得到了较为普遍的运用,深入地参与到了金融行业的方方面面之中。同时,在金融科技领域,人工智能技术还往往与大数据、云计算、区块链等技术相结合,为金融业的发展提供了无限可能。
然而,我们也应该看到,在人工智能技术深刻影响金融变革的同时,人工智能技术的大规模运用亦在一定程度上影响既有的法律法规和金融秩序。例如,人工智能算法的不透明可能导致在自动化决策的过程中造成算法歧视,对消费者权益造成影响;再如大数据智能应用的广泛运用,可能带来数据安全和个人信息保护的相关问题。如何在运用人工智能技术服务金融创新和满足金融监管要求之间实现平衡,对于金融机构和金融科技企业而言,都是需要探索的问题。
一、人工智能技术在金融科技领域的典型应用场景
当前,人工智能技术在金融科技的某些细分领域已经得到了较为普遍的运用,对金融业态的发展产生了全面、广泛的影响。就其中的典型应用场景,笔者试梳理如下:
(一)智能投顾
智能投顾,即指通过智能技术而开展的"投资顾问"业务,系根据现代资产组合理论,结合个人投资者的具体风险偏好与理财目标,通过后台算法为投资者提供的"投资顾问"服务。实践中,智能投顾业务开展过程中,智能投顾服务商一般首先通过大数据获得客户的个性化风险偏好、投资目标及其变化规律,并基于客户的个性化风险偏好,通过智能算法模型,定制出合理的个性化资产配置方案。之后,智能投顾还将利用互联网平台对客户的个性化资产配置方案进行动态实时的跟踪、调整与更新。
(二)算法交易
算法交易是金融科技领域最热门的技术之一,最早可追溯至上世纪70年代。它是指利用电子平台,输入包含算法的交易指令,以执行预先设定好的交易策略。在算法交易的应用场景下,算法决定交易下单的时机、价格乃至最终下单的数量与交易次数等。近年来,人工智能技术同算法交易的结合愈发紧密,越来越多的对冲基金、养老基金、投资机构等通过机器学习和深度学习,调整、优化算法,以采取更好的投资策略,提高资产收益。
(三)智能营销
传统金融机构的营销方式主要依赖于线下,智能化程度较低。随着人工智能技术的发展,众多科技巨头尝试将人工智能技术用于市场营销之中,结合机器学习技术,使用海量的标签进行模型的训练,以实现精准的营销,这正好迎合了金融机构数字化营销的需求。许多金融机构亦开始探索通过智能营销等方式建立以客户为中心的自动化营销平台,进行线上获客。
(四)智能风控
风控关系到金融机构的核心竞争力,是影响金融机构业务开展的重要环节,也是最广泛运用人工智能技术的金融场景之一。实践中,金融机构所开展的智能风控往往与大数据技术相结合,其基本逻辑一般是运用大数据平台的计算分析能力,机器学习或深度学习模型,并将相关模型运用于信贷风控、反欺诈、反洗钱、交易监控等具体场景。相较于传统的人工风控,智能风控更为稳定,有利于降低金融机构的风险管理成本。而对于一些风控能力相对较弱的中小金融机构来说,金融科技企业的智能风控技术亦可以作为风控能力建设的有效补充,对于金融机构业务开展具有重要作用。
(五)智能客服
近年来,金融机构对智能客服的需求逐渐提升。一方面,对于用户规模逐渐壮大的金融机构而言,其对客服人员数量的需求也相应地水涨船高,但盲目扩大客服队伍规模可能显著增加金融机构的人力成本,需要寻找成本相对可控的替代方案。另一方面,移动互联网的快速普及,让企业与客户的沟通变得多渠道的同时,也增加了用户对互动性的需求,需要企业寻求更加高效的客户沟通方式。基于此,智能客服逐渐为更多金融机构所采纳并使用。
二、围绕人工智能技术的金融监管要求
(一)人工智能技术运用中的金融数据保护问题
实践中,人工智能技术在被用于金融科技场景时,往往同大数据技术相结合。由于金融业数据治理一直是金融监管部门关心的重点话题,故而在金融科技领域运用人工智能技术的过程之中,金融数据保护也是无法绕开的重点问题。
在智能风控、智能营销等场景下,往往涉及大量的数据处理,无论是金融机构,还是为金融机构提供金融科技服务的第三方,仅凭直接收集的数据一般难以满足业务需要,通过第三方数据供应商间接收集或采购数据已成为金融业务开展过程中的常态。在该过程中,若涉及的个人信息收集行为违反《中华人民共和国民法典》、《中华人民共和国网络安全法》的相关规定,则可能面临相应的法律责任。
近年来,金融行业业务分工愈发精细化,金融业务开展过程中可能涉及众多主体的共同参与。例如,针对一笔线上贷款业务,可能需要资金方、保险公司/担保公司、支付机构、征信机构、智能风控机构、助贷机构等多类机构参与其中,在该等场景下,数据的共享几乎不可避免。但由于共享过程中涉及到数据控制者的变更,如未能采取必要的措施对数据共享行为予以规制,导致数据被不当使用甚至数据泄露的发生,相关参与方均可能将因违反数据保护相关规定承担责任。
此外,在智能风控、智能投顾、智能营销等人工智能等应用场景中,金融机构可能依据算法等自动化决策手段作出决定,如基于用户画像决定个人信用及贷款额度等。对于该等信息系统自动决策行为,《中华人民共和国个人信息保护法(草案二次审议稿)》(以下简称"《个保法(草案二审稿)》")第二十五条第一款亦提出了整体的规制要求,即应当保证决策的透明度和结果公平合理。同时,《个保法(草案二审稿)》第二十五条第二款、第三款针对自动化决策的特定场景提出了具体的要求,即对于通过自动化决策方式进行商业营销、信息推送的,应当同时提供不针对其个人特征的选项,或者向个人提供拒绝的方式;对于通过自动化决策方式作出对个人权益有重大影响的决定的,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。若后续《个保法(草案二审稿)》落地,则企业在使用相应人工智能应用时,应当确保符合上述规定,并为相关金融消费者提供相应救济途径。
(二)人工智能技术运用中涉及的金融营销宣传问题
如前所述,实践中,许多金融机构均将人工智能技术用于金融营销宣传之中,就该等营销宣传行为,一般还需要遵守金融营销宣传的相关规定。
例如,部分金融机构存在开展智能营销,向消费者手机推送金融营销宣传信息的行为。根据《关于进一步规范金融营销宣传行为的通知》,该等行为需要取得金融消费者同意。若未经金融消费者同意或请求,原则上不得以电子信息方式向其发送金融营销信息。即使取得了金融消费者的同意,金融机构在针对金融消费者开展金融营销宣传时,亦应当明确发送者的真实身份和联系方式,并向接收者提供拒绝继续接收的方式。
再如,部分金融营销信息可能通过互联网开展,该等金融营销信息可能以弹窗广告等形式呈现。若采用该等形式进行金融营销宣传的,应当显著标明关闭标志,确保一键关闭,并确保不影响他人正常使用互联网和移动终端。
(三)智能风控的特殊监管要求
智能风控是目前市场中头部金融机构和金融科技企业布局的重点,亦为人工智能技术在金融科技领域应用的重要表现。
1. "核心风控业务"不得外包
实践中,金融机构多将智能风控技术用于线上业务中。由于线上业务相对人往往分布在全国各地,部分中小金融机构尚不具备完全独立自主完成业务风险控制的技术能力。因而同提供智能风控服务的金融科技企业等第三方合作就成为了普遍现象。但在这个过程中,部分金融机构可能忽视了自身风控体系的建设,存在过分依赖甚至完全依赖外部智能风控技术的情形,催生了潜在的金融风险。
不可否认的是,大多数中小金融机构,在风控能力上确实同头部的互联网平台、金融科技企业存在一定的差距,因而在金融科技领域,寻求在智能风控方面的技术合作将是一种长期的趋势。值得引起关注的是,在这种长期合作中,金融机构仍应当对自身在智能风控各环节中的优缺点有充分的认识,有序引进和掌握各项数据资源和技术,尤其是实质性地做好信用评估、风险定价等核心环节的终审步骤。基于此,金融监管部门多次强调金融机构应当加强自身风控能力建设,严禁将授信审批、合同签订等核心风控业务外包。例如,在《关于规范整顿"现金贷"业务的通知》中,互联网金融风险专项整治工作领导小组办公室即要求"银行业金融机构与第三方机构合作开展贷款业务的,不得将授信审查、风险控制等核心业务外包。"《商业银行互联网贷款管理暂行办法》第八条第二款亦指出,"互联网贷款业务涉及合作机构的,授信审批、合同签订等核心风控环节应当由商业银行独立有效开展。"此外,在针对银行卡、支付、小额贷款等多个领域的监管规定中,金融监管部门亦都强调了"核心风控业务不得外包"的要求。
2. 针对风控模型的特定监管要求
同时,风控模型往往囿于相对固定的算法,其能否在一定时间内长期提供可靠的风控服务亦存在不确定性,而风控模型的稳定与否关系到能否有效降低金融风险。以互联网贷款为例,监管部门在《商业银行互联网贷款管理暂行办法》中亦对风险模型管理提出了一定的监管要求,具体如下:
类别 |
具体要求 |
对应条文 |
权限配置 |
合理分配风险模型开发测试、评审、监测、退出等环节的职责和权限 |
第三十七条 |
管理职责 |
不得将各环节风险模型的管理职责外包,并应当加强风险模型的保密管理。 |
|
定制化要求 |
结合贷款产品特点、目标客户特征、风险数据和风险管理策略等因素构建模型,并进行正常测试和压力测试 |
第三十八条 |
模型评审 |
建立风险模型评审机制,成立模型评审委员会负责风险模型评审工作,经评审通过后风险模型方可上线应用。 |
第三十九条 |
日常监测 |
建立有效的风险模型日常监测体系,监测至少包括已上线风险模型的有效性与稳定性,所有经模型审批通过贷款的实际违约情况等。监测发现模型缺陷或者已不符合模型设计目标的,应当保证能及时提示风险模型开发和测试部门或团队进行重新测试、优化,以保证风险模型持续适应风险管理要求。 |
第四十条 |
退出和处置 |
建立风险模型退出处置机制。无法继续满足风险管理要求的风险模型,应当立即停止使用,并及时采取相应措施,消除不利影响。 |
第四十一条 |
文档管理 |
全面记录风险模型开发至退出的全过程,并进行文档化归档和管理 |
第四十二条 |
除以上风险模型管理相关规定外,《商业银行互联网贷款管理暂行办法》第二十二条亦要求,"商业银行应当建立人工复核验证机制,作为对风险模型自动审批的必要补充。商业银行应当明确人工复核验证的触发条件,合理设置人工复核验证的操作规程。"对于智能风控模型的运用而言,必要的人工复核验证既体现了对消费者权益的保护,也有助于金融机构根据实践变化及时对模型进行调整。
3. 智能风控与征信
实践中,智能风控公司在服务金融机构的过程中往往存在一并输出相应信用评价的情形。结合当前监管口径,该等输出信用评价的行为存在被认定为未经许可从事征信业务的风险。
《征信业管理条例》第二条规定,"本条例所称征信业务,是指对企业、事业单位等组织的信用信息和个人的信用信息进行采集、整理、保存、加工,并向信息使用者提供的活动。"从该规定的文义出发,智能风控公司通过收集个人或企业的信用信息进行整理、加工,并向金融机构输出的行为基本符合征信业务的相关定义。结合近期要求网络平台实现个人信息与金融机构的全面"断直连"的监管口径,对于尚未取得个人征信牌照或完成企业征信备案的智能风控服务商,或应当尽快考虑取得相关资质。
(四)智能投顾的特殊监管要求
当前实践中,很多理财平台和基金销售平台,都已经将智能投顾技术运用到基金或理财产品的投资组合之中。但一方面,机构运用智能投顾技术服务的对象多为长尾客户,风险承受能力较低,如果投资者适当性管理不审慎、风险提示不到位,很容易引发不稳定事件。同时,若智能投顾技术大规模推广,算法的同质化可能加剧市场的波动,且算法自身具有一定的"黑箱"属性,监管机构和消费者均不易获悉投资决策的具体过程,也可能增加监管难度。基于此,就如何监管智能投顾技术的运用而言,境内监管部门在近年来也进行了一定的探索。
《关于规范金融机构资产管理业务的指导意见》(以下简称"《资管新规》")在第二十三条针对智能投顾业务提出了一定的合规要求,明确"运用人工智能技术开展投资顾问业务应当取得投资顾问资质,非金融机构不得借助智能投资顾问超范围经营或者变相开展资产管理业务",并要求开展智能投顾业务的机构仍应当履行投资者适当性、投资范围、信息披露、风险隔离等方面的一般性监管要求。
但对于《资管新规》所提到的"投资顾问"资质,目前仍尚未有明确落地的规定予以规制。在前期试点的基础上,证监会于2020年4月发布了《证券基金投资咨询业务管理办法(征求意见稿)》,试就包括"证券投资顾问业务"和"基金投资顾问业务"在内的"证券基金投资咨询业务"进行规制,涵盖了资格条件、内部管理、业务规范、监管和法律责任等多个方面。该办法若正式落地,或有利于智能投顾业务在规范化的框架下进一步发展。
三、金融机构与金融科技企业的应对措施
考虑到人工智能技术为金融科技的推广和金融业数字化转型的重要意义,其在金融行业的运用前景颇为广阔。但在将人工智能技术运用于各类金融科技场景的过程中,金融机构与金融科技企业亦应当采取必要的应对措施,确保符合相应的监管要求,避免潜在的法律风险。
具体而言,对于金融机构来说,在自主开发及运用人工智能技术的过程中,应当充分评估相关应用场景可能带来的潜在合规风险,遵守金融业务开展、金融数据保护、金融营销宣传等方面的相关监管要求。而在同第三方机构开展人工智能领域相关合作的过程中,金融机构应当建立相应的供应商准入制度,对第三方机构的资质进行充分审查,并在合作协议中明确同第三方机构的权利义务分配。若第三方机构发生任何负面舆情或存在任何违法违规行为时,应当立即暂停相关合作,要求第三方机构说明相关情况,并在必要时终止合作,以避免相关风险向自身传递。
对于提供人工智能相关金融科技服务的企业而言,应当审慎评估自身业务模式,如拟开展的业务根据法律法规规定或监管要求需要持牌的,应当及时取得相应资质,以避免未经许可经营金融相关业务所带来的相关潜在风险。同时,其应当密切关注金融领域和金融科技领域的相关立法,尤其是关于金融业务资质、金融消费者权益保护的相关内容,及时根据法律法规规定调整业务模式,确保合法合规经营。