从一夜爆红的ChatGPT简评《人工智能权利法案蓝图》发布的必要性和可执行性
从一夜爆红的ChatGPT简评《人工智能权利法案蓝图》发布的必要性和可执行性
一、ChatGPT爆火带来的人工智能应用隐患
2022年11月30日,由美国人工智能实验室OpenAI研发的通用聊天机器人ChatGPT上线,ChatGPT是一款全新的聊天机器人模型,实际是由人工智能技术驱动的自然语言处理工具。爆火的ChatGPT上线仅五天就收获100万用户,获得百万用户数并不是一件容易的事,此前脸书用时10个月,Instagram也用时2.5个月。ChatGPT不仅能够模拟人类的正常聊天交流,能够完成撰写文章、编辑视频脚本、翻译、编写代码等任务,还通过了美国高校的入学资格考试(SAT)、美国沃顿商学院的MBA考试。ChatGPT的横空出世,再次掀起了一波人工智能发展应用的高潮。
可见,在不使用特定工具的情况下,ChatGPT在特定任务中的表现与一般人类几乎没有区别,可能会导致难以区分聊天对象或任务的完成者究竟是真实的人类还是机器人,从而使得人类对真实性、所有人身份产生怀疑,助长人类之间的不信任感。另一方面,由于ChatGPT是通过大量训练构建的机器模型,该模型本身并不具有道德观、价值观和世界观,会接收或输出虚假的甚至是不符合伦理的信息,若ChatGPT被广泛应用,可能会导致这些虚假的、不良的信息泛滥,进而诱发一些不安全、不公平、严重的后果,对人类正常的社会秩序产生影响。目前,法国巴黎政治学院已禁止使用ChatGPT;纽约市和西雅图的一些公立学校也禁止使用ChatGPT,宣布计划减少居家评估,增加手写论文和口试。近日,斯坦福大学研究出了一个名为 DetectGPT 的模型,以应对 ChatGPT 等人工智能工具的挑战,防止学生使用人工智能工具完成作业、考试作弊或者生成论文。[1]
在人工智能日渐融入人类生活的情况下,人工智能的开发、应用和监管无疑会面临诸多挑战。美国暂没有专门规范人工智能应用的联邦法律,而是依靠现有的地方法律法规、框架规划,指导人工智能的道德使用。
二、关于《人工智能权利法案蓝图》
2022 年10 月,美国白宫科技政策办公室(White House Office of Science and Technology Policy, OSTP)发布《人工智能权利法案蓝图:让自动化系统为美国人民服务》(The Blueprint for an AI Bill of Rights: Making Automated Systems Work for The American People),旨在支持自动化系统建设、部署和治理过程中,保护美国公民的民主权利。
诚如《人工智能权利法案蓝图》前言部分所描述的,当今民主面临的重大挑战之一,是技术、数据和自动化系统的使用以某种方式威胁到了美国公民的权利。这些工具常常被用来限制我们的机会,阻止我们获得关键的资源或服务。例如,在美国和世界各地,一些本应帮助病人治疗的系统已被证明是不安全、无效或有偏见的;在雇佣和信贷决策中使用的算法,反映和再现了现有的不被社会所期待的不公现象,或是嵌入了新的有害偏见和歧视;未经审查的社交媒体数据常在人们不知情或未同意的情况下收集,被用来威胁人们的机会、破坏他们的隐私、普遍跟踪他们的活动。[2]
虽然《人工智能权利法案蓝图》不具约束力,也不构成美国政府的政策。它不取代、修改或直接解释任何现有的法规、规章、政策或国际文书。但是,《人工智能权利法案蓝图》为如何建立一个保护所有人免受前述威胁的社会、如何使用技术强化最高的价值观提供了指南。在未来的一些具体领域中,指导自动化系统在某些场景中的使用可能是必要且重要的,例如用于自动医疗诊断的人工智能系统。
《人工智能权利法案蓝图》包含前言、五项原则、应用说明、技术手册等几个部分。前言介绍了蓝图发布的背景、框架以及意见来源。五项原则是在广泛地咨询美国公众后制定的,通过小组讨论、公众听证会、会议、正式的信息请求,以及向可访问并被广泛宣传的电子邮件地址发信,美国各地的人民、联邦机构的公务员以及国际社会的成员都参与了对这些技术的期许和潜在危害的讨论,在形成人工智能权利法案的蓝图中发挥了核心作用。应用说明部分描述了蓝图与现行法律和政策的关系、法律和技术术语的定义。技术手册为前述五项原则提供了实例和具体步骤,每项原则附有3个补充部分,(1)为什么该原则很重要;(2)可以采取的措施;(3)如何将这些原则付诸实践。
五项原则
1. 安全且有效的系统(Safe and Effective Systems)
安全且有效的系统是指,公众应免受不安全或无效系统的影响。
(1)为什么该原则很重要
技术虽然可以解决一些问题,但有些情况下,技术也有可能不能按预期实现,造成重大和不合理的损害。自动化系统有时依赖于来自其他系统的数据,包括历史数据,这使得过去决策中的不相关信息会影响当前的决策。在某些情况下,技术被故意设计来侵犯他人的安全,比如一个专有模型被用于预测住院患者败血症的可能性,并在全美数百家医院实施。一项独立的研究表明,相对于开发者的说法,模型预测的表现不佳,同时对败血症发出错误预告的可能性还会导致医务人员“警觉性疲劳"。[3]尽管目前已经有一些措施解决这些问题,比如一些公司对关键决策进行道德审查,一些公司通过部署前测试和持续监控发现并且减轻危害;在考虑使用新的自动化系统时,各级政府都有现成的公共咨询流程,并且已经保护了美国公众免受许多潜在危害,但这些实践部署得太少,而且不均衡。需要在现有做法的基础上发展更加广泛积极的保护措施,提高人们对使用自动化系统的信心。为创新者提供明确的路径规则,以便让新思想蓬勃发展。
(2)可以采取的措施
A. 积极持续地防止公众受到伤害。在自动化系统开发的设计、实施、部署、获取和维护阶段,应该咨询公众。在自动化系统部署之前应该进行广泛测试。在部署之前,应主动和持续地识别并减少自动化系统的潜在风险。自动化系统应该有持续的监控程序。负责开发或使用自动化系统的实体应制定明确的治理结构和程序。
B. 避免不适当、低质量或不相关的数据利用及重复利用造成的二次伤害。数据应该被明确标记,以便根据敏感性限制重复利用。
C. 证明系统的安全性和有效性。自动化系统的设计应该允许独立的评估。负责开发或使用自动化系统的实体应提供定期更新的报告。
(3)如何将这些原则付诸实践
目前已通过一些法律、政策及实践性方法来保护公民的权利、机会和资源获取,包括联邦机构在为国家安全或国防以外的目的设计、开发、获取或使用人工智能时,应当遵守关于人工智能的九项原则。[4]从大公司到初创企业,全行业都在提供创新的解决方案,使各机构能够借助部署人工智能之前和之后的长期监测,减轻人工智能系统在安全性和有效性方面的风险。美国能源部(DOE)、国防部、美国情报机构(IC)等政府机构已经为人工智能系统的道德使用制定了具体的框架。美国国家科学基金会(NSF)等多个国家科学基金计划资助许多研究,以帮助促进自动化系统的发展,保持并提高其安全性,保密性和有效性。一些州立法机构对使用审前风险评估提出了高透明度、高有效性的要求。
2. 算法歧视保护原则(Algorithmic Discrimination Protections)
算法歧视保护原则是指,公众不应受到算法和系统的歧视,自动化系统应该以公平的方式被使用和设计。
(1)为什么该原则很重要
大量证据表明,自动化系统可能产生不公平的结果,扩大现有的不平等。数据不能解释美国社会中现有的系统性偏见,这可能导致一系列后果。例如,可能导致错误和歧视性逮捕的面部识别技术[5],为歧视性决定提供信息的雇佣算法,以及低估美国黑人某些疾病的严重程度的医疗算法。虽然许多公司、非营利组织和联邦政府机构已经采取措施确保公众免受算法歧视。但要保护公众免受算法歧视,以公平的方式使用和设计自动化系统,还有很多工作要做。
(2)可以采取的措施
A. 积极持续地保护公众免受算法歧视。在主动评估的设计中注重公平性。使用的任何数据都应当足够可靠,以查明并帮助减轻偏见和潜在危害。在设计、开发和部署期间确保可访问性。自动化系统应使用一系列广泛的措施进行测试,以评估在部署前测试和场景中部署的系统组件是否产生差异。当差异评估发现与被评估群体之间的差异时,可以适当采取措施减轻或消除差异。应定期监测自动化系统,以评估系统部署前的测试期间未考虑到的不公平现象、部署后系统的变化、使用场景或相关数据的变化、产生的不可预见的相互作用可能引起的算法歧视。
B. 证明该系统可以防止算法歧视。各实体应允许对其使用或监督的自动化系统造成的潜在算法歧视进行独立评估。负责开发或使用自动化系统的实体应该提供经合理设计的算法影响评估的报告。
(3)如何将这些原则付诸实践
联邦政府正加大力度打击抵押贷款中的歧视现象。大公司已经制定了仔细审查用于招聘的数据和模型的指导方针。标准组织制定了将无障碍标准纳入技术设计过程的准则。
3. 数据隐私原则(Data Privacy)
数据隐私原则是指,自动化系统应有内置的保护措施保护公众免于数据被滥用,并且公众应保有如何使用与其有关的数据的主导权。
(1)为什么该原则很重要
数据隐私保护是在本框架内实现所有其他目标所必需的、贯穿各领域的基本原则。越来越多的公司、政府机构跟踪美国公众的行为,基于这些数据建立个人档案,并在自动化系统中输入这些颗粒度级别的信息,进一步跟踪、剖析和影响美国公众。与此同时,美国公众往往无法访问他们的个人数据,也无法对数据的收集和使用做出重要决定。不精确和错误的数据可能被用来决定他们的生活。目前,美国缺乏一个全面的法律或监管框架来规范公众在个人数据方面的权利。
(2)可以采取的措施
A. 设计和构建自动化系统时默认保护隐私。在整个开发周期中都应注重隐私风险评估,并应实施相应的技术性、政策性的缓解措施。限制数据收集和用例范围。识别并减少风险。收集、使用、共享或存储敏感数据的实体应努力主动识别危害并设法处理这些危害,以避免、减轻和适当应对已被识别的风险。创建、使用或治理自动化系统的实体应该在实践中注重隐私和安全,以确保数据和元数据不会泄露到已经过同意可以使用的场景之外。
B. 保护公众免受未经审查的监视。对监视或监控系统进行更严格的监督。除非是为了实现合法目的而极其必要,监视程度应与需求平衡,进行有限和适度的监视。监视系统不应用于监视民主权利的行使,如投票、隐私、和平集会、言论或结社,以限制公民权利或公民自由的行使。
C. 为公众提供适当且有效的许可、访问和控制他们数据的机制。数据收集器或自动化系统应该针对特定场景、特定时长和特定主体的使用征求许可。在征求用户同意时,许可请求应使用简短平实的语言,以便用户了解他们提供数据和元数据许可时被使用的内容、时间跨度和被许可对象。被自动化系统收集、使用、共享或存储数据的人员应能够访问有关他们自己的数据和元数据,知道谁有权访问这些数据,并能够在必要时进行更正。实体应允许用户在法律允许的范围内撤销数据访问同意书,继而删除用户数据和元数据。设计、开发和部署自动化系统的实体应该建立和维护一种允许个人使用自己的自动化系统的功能,以帮助他们在复杂的数据生态系统中做出同意、访问和控制决策。
D. 证明数据隐私和用户控制受到保护。实体应允许对相关数据政策的主张进行独立评估。当公众希望了解系统中使用的是关于他们的哪些数据时,负责系统开发的实体应迅速作出回应,报告其收集或存储的关于他们的数据。
E. 敏感领域有关数据的额外保护。敏感数据只能用于该领域必需的功能,或因行政原因产生的功能(例如学校出勤记录),除非在适当情形下获得了同意。任何使用敏感数据或基于部分敏感数据的决策程序都应事先通过审查且定期接受审查(例如通过独立的道德委员会的审查或类似严格程序),进行彻底的道德审查和监测。在敏感领域,实体应特别注意维护数据的质量,以避免基于有缺陷或不准确数据的决策产生不利的后果。敏感数据和派生数据不应作为数据经纪业务或其他协议的一部分被出售、共享或公开。开发与敏感领域相关技术的实体,以及收集、使用、存储或共享敏感数据的实体应定期提供公开报告。
(3)如何将这些原则付诸实践
1974 年的《隐私法》要求对联邦档案系统中的个人信息进行隐私保护,包括对数据保留的限制,并且还给予个人访问和更正数据的一般权利。美国国家标准与技术研究院(National Institute of Standards and Technology,NIST)的隐私框架为管理隐私风险的组织提供了全面、详细和可操作的方法。智能手机上的隐私选择表明,如果技术设计得当,隐私和数据代理可以是有意义的,而非难以接受的。
4. 通知和解释原则(Notice and Explanation)
通知和解释原则是指,公众应该知道其正在使用自动化系统,并且理解它是什么以及如何产生对公众有影响的结果。
(1)为什么该原则很重要
自动化系统决定着人们的机会,从就业到信贷,它直接塑造了美国公众所经历的一切,从法庭到网络教室,都深刻影响着人们的生活。人们常常不了解如何消除自动化系统对他们生活造成的影响。公众往往无法确定自动化系统如何做出决定、为什么做出决定或追求特定结果。自动化系统的决策过程往往是不透明的、复杂的,不管有意无意,这都是不负责任的。为了防止潜在危害,美国公众需要知道自动化系统是否正在被使用。给出通知和解释还有助于提高自动化系统的安全性和有效性,使专家能够在提出建议前核实建议的合理性。
(2)可以采取的措施
A. 提供清晰、及时、可理解和可访问的使用和解释通知。负责使用自动化系统的实体应该确保描述整个系统的档案是公开的并且容易找到。通知应明确指出负责设计系统各组成部分的实体和使用该系统的实体。用户应在使用或受到技术影响之前收到使用自动化系统的通知。应评估通知和解释,确保使用自动化系统或受自动化系统影响的人员能够轻松找到通知和解释、快速阅读和理解内容并据此采取行动。
B. 就自动化系统如何以及为什么作出决定或采取行动提供解释。解释应针对用户预期使用该解释的具体目的进行调整,并应明确说明这一目的。解释应针对特定的受众,并明确说明是哪些受众。应评估确定自动化系统的风险水平。应该准确地反映导致特定决策的因素和影响。简要报告中应记录基于上述考虑做出的决定。
(3)如何将这些原则付诸实践
《生物识别信息隐私法》(The Biometric Information Privacy Act)制定了关于使用个人生物识别数据和识别码的条款。一些非营利组织和公司已经合作开发了一个框架,该框架规定了机器学习系统的透明度的操作方法。联邦法律要求放贷者做出有关贷款者的某些决定后应当通知他们。全联邦政府中,各机构都在进行并支持对可解释的人工智能系统的研究。
5. 人工选择、考虑和退出原则(Human Alternatives, Consideration and Fallback)
人工选择、考虑和退出原则是指,在适当的情况下,公众应该能够选择退出,选择不使用自动化系统,并使用人工替代方案或其他可选方案,纳入人工考虑。
(1)为什么该原则很重要
一旦公众决定不再专门处理自动化系统并受其结果的影响,就不得不忍受一个繁琐的过程,才能到达人工决策者那里。由于决策过程中缺乏人工的重新考虑,许多人获得权利、机会、福利和关键服务的机会被推迟或失去。当权利、机会或获取受到严重威胁时,如果有合理的期望可以替代自动化系统,他们可以方便地选择退出自动化系统,而且不会被这个选择妨碍。
(2)可以采取的措施
A. 在适当的情况下,提供从自动化系统中退出的方便机制,并使用人工替代系统。那些受到自动化系统影响的人应该收到一条简短、明确的通知,告诉他们有权选择退出,并附上如何退出的明确指令。选择退出程序时应及时触发人工替代的使用,且没有不合理的负担。
B. 自动化系统出现故障、产生错误,或者公众想要反馈或质疑其影响时,应通过后备和升级系统提出人工考虑和补救措施。人工考虑的适用性,以及相关培训和防止偏见的保障措施,应该与自动化系统影响权利、机会或获取的潜力相称。无论是以当面、书面、电话还是其他方式提供,人工考虑和退出机制都应该容易被找到和使用。应确保后备和升级系统的成果与自动化系统的成果相比是公平的。应该配备人员并定期进行评估,以确保提供及时的人工考虑和退出。应该注意设计考虑和退出程序的组织结构,当人类决策者决定推翻上一个决策时,应确保新决策将得到有效执行,并设置保护措施以帮助确保新决策不会导致同样的错误。
C. 通过培训、评估和监督消除自动化带来的偏见,并确保系统中任何以人为基础的组件都是有效的。任何管理、交互或解释自动化系统输出的人都应该接受关于该系统的培训。以人为基础的系统的功效和对潜在偏差的评估应由治理结构监督。
D. 对涉及敏感领域的自动化系统实施额外的人工监督和保障。人为监督应确保敏感领域的自动化系统的范围狭窄,以实现确定的目标,并证明所包含的每个数据项或属性与具体用例相关。人为监督应确保敏感领域中的自动化系统适合特定用例和实际部署场景。不应允许自动化系统在没有人为考虑的情况下直接干预高风险情况,如量刑决定或医疗护理。自动化系统的设计者、开发者和部署者应该在必要时考虑有限的保密豁免,以便对敏感领域使用的系统进行有效的监督,并酌情采取措施保护知识产权和商业秘密免遭不必要的披露。
E. 说明如何获得人工替代方案、考虑和备份。报告应包括对人工替代方案的及时性和额外负担程度的评估、关于哪些人选择人工替代方案的总体统计、以及对通知和用户选择退出方式的简洁性、清晰性和可获得性的评估结果。
(3)如何将这些原则付诸实践
许多企业现在使用部分自动化的客户服务平台,帮助回答客户的问题,并汇集常见问题供人工代理审查。这些集成的人工智能系统允许公司提供更快的客户服务,同时维护人工代理来应答电话或以其他方式响应复杂的请求。在选票计算问题上,美国已有至少有24 个州的选票修正法律要求有一个备用系统,允许选民修正他们的选票,并计算考虑在选民签名匹配算法错误地将他们的选票标记为无效的情况,以及选票出现其他问题且选举官员的审查不能纠正的情况。[6]
三、简评
对于《人工智能权利法案蓝图》,目前有许多积极的评价。艾伦人工智能研究院联合创始人、软件自动化供应商UiPathInc.的人工智能咨询委员会主席奥伦·埃奇奥尼(Oren Etzini)表示,如果实施得当,该蓝图能够有效减少人工智能不当使用,并促进人工智能在医疗、驾驶、企业生产等方面的有益采用。但在看到积极面的同时,一些专家也提出了顾虑。例如,斯坦福大学以人为本人工智能研究院(HAI)主任拉塞尔·沃尔德(Russel Wald)指出,该蓝图缺乏设立相关执法机制的细节,比如由联邦层面协调的监控、审计和审查行动。人工智能与数字政策中心(Center for AI and Digital Policy)负责人马克·罗滕伯格(Marc Rotenberg)则在肯定该蓝图价值的同时表示,他希望看到一些对最具争议的人工智能部署的明确禁令,如利用面部识别进行大规模监控等。[7]
《人工智能权利法案蓝图》详细阐述了人工智能对公民权利的危害和案例,列出了五个对于自动化系统来说至关重要的原则,包括安全且有效的系统;算法歧视保护原则;数据隐私原则;通知和解释原则;人工选择、考虑和退出原则,并提出了一些可采取的具体措施。因此,总体上,公众、专家、学者对于《人工智能权利法案蓝图》的评价是积极且肯定的,认为《人工智能权利法案蓝图》的发布是必要且重要的。但由于《人工智能权利法案蓝图》是框架性和探索性的,且在阐述如何将五项原则付诸实践时,仅给出了有限数量和有限类型的案例,主要关注人工智能在招聘、教育、医疗保健供应、金融服务访问、商业监控等领域的应用。因此,《人工智能权利法案蓝图》难以被看作是通用的人工智能原则。相比之下,欧盟的《人工智能法案》则是为许多不同类型的算法和应用编写相对普适的规则。并且,由于《人工智能权利法案蓝图》不具有约束力,其在具体的监管执行方面也还不完善,缺少更详细更具体的指导,究竟能够对自动化系统起到多大程度的指导作用,在很大程度上取决于联邦机构的行动。若要加强《人工智能权利法案蓝图》的可执行性,国会应推动人工智能相关立法,制定专门规范人工智能应用的联邦法律,以及更具体的实施细则,使其完全成为国家蓝图指导方针的一部分。
在日益激烈的中美人工智能竞赛中,立法、司法和执法起到了非常关键的引导和规制作用,美国政府为确保美国在人工智能技术和产业发展中的领导地位,正在通过一系列制度设计和政策举措,持续完善人工智能发展的顶层设计,加大对我国的围堵和遏制。自2017年印发了《新一代人工智能发展规划》以来,我国也从法律法规及标准制定、基础设施建设、产业应用发展等方面进行了多方面的推动和完善。所谓“知己知彼,百战百胜",中国政府和中国企业应当密切关注美国政府在人工智能领域所关注的方向及给出的指导,提前做好相关准备和部署,才能在人工智能领域处于领先地位。
[注]