人脸之辩——从近期中外人脸识别重大事件,谈数字时代对个人信息及权益的尊重和保护
首刊于律商视点(2020-07-20)
日前,2020世界人工智能大会刚刚于上海闭幕。受疫情影响,盛会在网上召开。数字技术领域的大咖们聚集在云端,畅谈人工智能将如何帮助经济复苏,造福公共健康卫生,共建世界智能家园。
然而,公众对于人工智能等数字化新科技和新概念的关注不仅在于气势恢宏的盛会,也在于国内外媒体时有报道的关于人工智能如何影响甚至侵害个人日常生活的新闻事件,其中包括一些涉及维护个人权利和权益的法律案件。而作为人工智能技术应用之一的人脸识别,大概是近期最大的争议焦点。
近期发生的中外人脸识别案件及其它事件
比如,国内发生的 “人脸识别第一案”,即杭州消费者郭兵于去年末起诉杭州野生动物世界的法律案件。该案中,郭兵购买了动物园年卡,当时双方约定以核验指纹的方式入园。半年后,动物园以短信通知郭兵核验方式升级为人脸识别,不注册人脸识别将无法正常入园。受过法学教育的郭兵不认可动物园的“升级”行动。他认为,面部识别特征属于敏感个人信息,若处理不当遭泄露或滥用,将严重侵害消费者的人身和财产安全;而且,动物园在没有征求消费者同意的情况下,以短信通知方式单方改变入园规则,不构成对服务合同内容的有效变更。他要求法院判定入园规则的变更无效,动物园退还年卡费用,并在第三方机构的见证下删除其全部个人信息。
今年6月杭州市富阳区法院已开庭审理该案。根据新闻媒体的报道,案件被告动物园辩称,以人脸识别进行游客身份核验是为了提高入园的速度。“追求效率”一说是否就足以支持动物园采用人脸识别技术的合理性?笔者认为,园方至少还应对以下问题给出答案:首先,添置人脸识别设备之前,是否论证过如何对面部特征以及指纹等敏感个人信息进行妥善管理和保存?其次,在技术层面以及管理方式上,对于保管游客的个人信息目前是如何操作的?另外,为什么不能把工作做细致,允许不愿意刷脸的“郭兵们”继续以指纹方式进行核验,而非武断地一刀切?更进一步来追问,人脸识别究竟带来了多大的入园效率提升?动物园冒着敏感信息一旦遭泄露将带来的严重后果而上马人脸识别,是否真的值得,还是有欠思量?
无独有偶。在美国伊利诺伊州,脸书因未经用户同意,擅自使用人脸识别技术而陷入一起侵权集体诉讼,于今年1月底以支付5.5亿美元赔偿金的代价与原告和解,了结了这起持续了五年之久的纠纷。脸书曾向美国最高法院申请提审本案,但遭最高法院拒绝;之后不久原被告达成和解。
这起侵权纠纷事出脸书的“照片标记” (Tag) 功能,该功能基于人脸识别软件自动标记用户照片中的人物姓名。三位牵头起诉脸书的原告认为,脸书从未向其告知照片标记功能系应用人脸识别软件来分析照片及创建和储存“人脸模板“。
根据伊利诺伊州2008年通过的生物特征隐私法 (Biometric Information Privacy Act),收集伊州公民面部特征、指纹等人体生物识别信息需征得相关个人的事先同意,且信息控制者需制定隐私政策,明确信息保存措施和销毁安排。违法收集生物识别信息的,个人有权起诉和索赔。构成过失违法收集的,法定赔偿金额是1,000美元;故意违法的法定赔偿金额是5,000美元,个人也有权根据更高金额的实际损失来提出赔偿要求。值得一提的是,尽管此后德克萨斯州和华盛顿州等地也先后出台了生物特征隐私法,但是全美唯有伊州赋予个人起诉和索赔的权利。
涉讼后,脸书于去年更换了照片标记所依赖的技术,替代以更宽泛化的人脸识别技术,并且将照片标记功能置于默认关闭状态。
近期在美国发生的弗洛伊德事件也深刻影响着人脸识别应用的走势。5月25日,非裔男子弗洛伊德惨遭警察跪杀,导致全美各地民众持续数周游行示威,表达对警察残酷执法的强烈不满。在这样的舆论背景下,IBM率先于6月初宣布放弃人脸识别业务,亚马逊和微软紧接着也表示将暂停将人脸识别产品卖给警察局等执法部门。事实上,近几年来美国一些人权组织和民间团体一直呼吁要避免人脸识别被警察当局滥用。另一方面,高度依赖机器学习(machine learning)的人脸识别技术因学习数据来源的不足会产生“技术偏见”。据报道,在美国供机器学习的数据库里有丰富的白种人群的面部特征数据;而少数族裔人群数据,特别是有关深肤色及其中女性人群的面部特征数据却显不足,由此造成后者的识别出错率较高[1]。尽管“技术偏见”不同于“政治偏见”,但人工学习和算法的不透明容易让公众担忧人脸识别技术若常态化于警察执法办案中,是否会对少数人群产生新的不公,乃至歧视?
科技是一柄双刃剑。一方面,人脸识别等人工智能新兴技术蓬勃兴起,推动者数字经济的高速发展,让大众群体享受到数字化生活带来的种种便利;另一方面,发展新兴技术与社会伦理道德之间应该怎样平衡和体现公平?人脸识别技术具有隐蔽性、无接触、可远距离操作等特点,怎样真正做到造福人类,而非让人类陷入隐私被侵犯的尴尬?人工智能是数据、算法和计算能力等跨领域技术的汇合,没有数据,就没有人工智能[2]。企业在向消费者和用户提供数字化的产品和服务的过程中,接触和处理着大量的个人信息。如何避免过度收集个人信息,企业处理个人信息的边界又在哪里?如何保障个人信息的安全,尤其是人脸面部特征等敏感个人信息的安全?如何控制和减低安全漏洞风险?涉及个人信息非法泄露的丑闻时有发生,有的是从作为数据控制者的企业内部流出, 如8000多万脸书用户的个人信息被泄露给数据公司剑桥分析;也有因企业系统存在漏洞而遭黑客攻击的案例,如据报载5亿条华住酒店集团旅客的开房信息在黑市出售,等等。这些触目惊心的案件侵蚀着个人信息、隐私和权益,同时也消蚀着公众对于新科技的好感和信任。
面对人工智能等新科技带来的希望和挑战,个人可以扮演怎样的角色?政府应当以怎样的立场保障个体和公众的权益,实现新科技的可持续发展?在数字经济洪流中经历着转型的企业又如何做好合规经营,尊重消费者及用户的个人信息和权益,赢得信任?
那些推动个人信息保护前行的星星之火
前文提到的国内“人脸识别第一案”发出了我国公民有权维护个人信息和权益的积极信号。郭兵凭一己之力,以法律手段挑战动物园疑似过度收集游客敏感信息的行为,让公众看到在个人信息保护领域维权的曙光。事实上,在欧盟以及美国有关个人信息保护的法治领域,都闪现着一些公民个体的积极身影,他们为提升民众意识,完善个人信息的法律保障措施做出了卓越的贡献。
例如,欧盟与美国曾经于2000年达成数据传输的安全港安排(EU-US Safe Harbor Framework),欧盟根据安全港安排得出美国对欧盟公民个人信息保护“充分”、与欧盟的保护水平基本相当的结论。2013年,棱镜门事件发生,美国情报当局一系列的监听和监控行动被曝光,奥地利法学博士生Maximilian Schrems遂向脸书欧州公司所在地的爱尔兰数据保护当局投诉,质疑欧盟公民的个人信息被脸书跨境转移到美国后将面临的安全风险。Schrems的质疑以及后续的诉讼行动,使得欧盟法院于2015年宣布安全港安排以及在此基础上欧盟做出的 “充分性认定”一并失效[3]。
在美国方面,2018年6月《加州消费者隐私法》(California Consumer Privacy Act,CCPA)出台,这部被称为美国历史上最严格的个人信息保护法,是地产商Alastair Mactaggart 倒逼加州政府的产物。2016年,Mactaggart等提出动议要求对消费者隐私保护立法,在一年多时间里成功征集到了60多万个加州选民的签名,远远超过触发加州全民公投需的人数要求;而全民公投通过的法案政府日后对此将无权进行修法。为了避免陷入被动局面,加州政府不得不接受了Mactaggart的要求,在他给定的只有两周不到的苛刻限期内由政府方面拟定并最终通过了CCPA,堪称美国立法史上的奇观。
可见,在推动个人信息保护的法治建设道路上,个人的力量未必渺小。而政府、企业和商家要对个体的权利和诉求予以高度尊重和重视,不逾矩,不越界,为人工智能乃至数字经济的发展营造一个健康和谐、让公众信任和安心的环境。
中、美、欧各自推出的人工智能战略及其中关于公众信任问题的共识
中国、美国和欧盟这世界三大主要经济体都已经分别发布了人工智能发展战略,指明人工智能全球竞争新格局下各自政府的视角和侧重。
2017年7月,作为我国人工智能国家战略的《新一代人工智能发展规划》(“《规划》”)由国务院发布。由“人工智能是引领未来的战略性技术”、“经济发展的新引擎”出发,《规划》指出人工智能作为影响面广的颠覆性技术,可能带来“冲击法律与社会伦理、侵犯个人隐私”等等问题;《规划》提出若干保障措施,包括加强有关隐私和产权保护、信息安全利用、建立追溯和问责制度的立法研究,建立健全公开透明的人工智能监管体系,惩戒数据滥用、侵犯个人隐私、违背道德伦理等的行为。《规划》提出目标,到2030年我国人工智能的理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。
2019年2月,特朗普签署总统令,以“保持美国在人工智能方面的领导地位”为题,发表了美国关于人工智能的最新战略[4]。总统令以巩固美国目前的人工智能世界领导者地位为目标愿景,要求联邦政府各部门加大涉及人工智能各领域的研发投资,并由各部门落实相关行动计划。总统令提出,美国应 “培养 (foster)” 公众对人工智能技术的信任和信心,保护公民的自由,隐私和美国价值观,以充分实现人工智能为美国公众带来的价值潜力。
与中美相比,欧盟的人工智能在技术和应用等方面都显得落后。今年2月,欧盟出台《人工智能白皮书》,提出雄心勃勃的投资计划;此外秉承欧盟一贯以来对公民人权和自由的高度重视,白皮书强调人工智能技术应“合乎道德和可信赖”地在欧盟经济中加以应用,做到为民众服务,成为推动社会福祉的力量。
按惯例,欧盟白皮书是面向公众发布,征求公众对某一领域立法等意见的文件,并将在汇总公众意见的基础上出台欧盟法规和政策。《人工智能白皮书》出台前,一度有传言欧盟将对人脸识别技术设立约5年的暂停使用期,以保证有时间健全法律法规等保障措施,防止技术滥用导致对基本人权和隐私的侵害。但是,正式发表的白皮书中并不见暂停期的限制。笔者推测,欧盟也心存顾虑,一旦启动暂停期,等于将人脸识别技术和市场的发展拱手让与中美等竞争对手。正如我国政府所强调 ,“加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题”[5],欧盟在意人权和隐私的同时,也生怕叫停人脸识别技术将导致发展机遇旁落。
《人工智能白皮书》体现了欧盟选择以平衡的方式来发展和规范人脸识别技术的价值取向。欧盟强调需符合必要性、适当性等原则,在尊重个人信息保护的核心权利以及在健全安全保障体系的基础上发展人工智能。基于目的必要性的原则考量,目前欧盟仅在符合重大公共利益等少数情况下才允许处理人脸面部特征和指纹等人体生物识别信息。
关于公众信任问题,美国和欧盟都指出,公众对于人工智能信心缺乏,亟需增强。耐人寻味的是,这两大经济体采用不同的相关措辞,体现出理念上存在的差异。美国战略提出要“培养 (foster)” 公众对新技术的信任和信心。英语词典关于 “foster” 一词的释义是“鼓励,促进”,尤其指促进美好事务的发展,从词源上“foster” 一词来自于“food”,即食物。美国战略此外还两次指出,要通过保护美国的技术、经济安全和国家安全、公民自由、隐私和价值观等行动,减少人工智能技术和创新性使用的“障碍(barrier)”。与之相对照,欧盟战略则没有出现“培养 (foster)”,“障碍(barrier)”等字样,而是强调要 “建立 (build) ” 公民对于人工智能的信心。笔者咬文嚼字,认为尽管 “培养” 和 “建立”词义相近,但是前者预设的倾向性更强,意味着人工智能之好处公民尚不能领会,故而要让公民多加以领会;而自由、隐私等在美国战略中似乎又被称作了人工智能发展的某些障碍。欧盟的“建立”措辞显得中性,并且寓意着信心的“建立”有赖于 “建设者 (builder)”的努力。涉足人工智能乃至更广义范畴提供相关产品和服务的企业无疑是建设者中的核心力量,应该积极地去争取民众的信任。
按照《规划》,我国治理人工智能在近期应侧重加强对于个人信息和隐私的法律保护,信息安全,强化提供人工智能产品和服务的企业的问责制度,包括信息处理的问责制。目前我国的个人信息保护单行立法工作仍然在进行之中。在我国的“人脸识别第一案”中,郭兵也惟有依据2013年修订的《消费者权益保护法》(“消法“)作为其行权和索赔的基础。虽然消法确立的“合法、正当和必要”这三项经营者收集和使用消费者个人信息的核心原则在前不久刚颁布的《民法典》中也得到了肯定和呼应,但是面对一路狂奔的人脸识别等数字新技术,如何让民众安心和放心,减少 “刷脸没商量”或者“裸奔”之类的消费者困境,确实需要更健全的个人信息和隐私保护体系,改变目前相关保护散见在消法、《电子商务法》、《保险法》、《网络安全法》等多个法律法规中的状况,通过完善法治来提升公众的信任度。
将个人信息保护体系融入企业的数字化转型中
在数字经济大潮的涌动下,企业内部急迫地需要进行数字化转型,开发数字化的产品和服务,以信息和数据为营销和决策活动提供更多启迪;同时也要顺应外部环境的变化,尤其是消费者和公众不断上升的个人信息维权意识,以及有关个人信息保护、数据安全等方面的新的法律法规要求。面对数字化带来的诸多挑战,企业法务人员如何有效开展个人信息和数据保护的工作,为公司业务和运营保驾护航?当各行各业趋之若鹜地开展数字化业务,而个人信息保护虽然意义重大但相关法务工作尚属开展之初期,而且企业法务部普遍人手单薄,如何以“四两拨千斤“之招式使出巧劲又能抓到重点和达到效果?
笔者认为,在培训和提高业务同事有关个人信息保护的理念和知识的基础上,需要建立个人信息保护流程体系,贯穿于信息处理的生命周期全过程,并融入企业的数字化业务决策构成中。换句话说,个人信息保护流程是企业数字化转型的有机和核心组成部分,不可或缺。公司法务要高瞻远瞩地来定位个人信息保护工作。得益于法务经年累月向业务的培训和警示,关于廉洁反贿赂、反垄断、商业秘密保护等领域的法律要求和重要性,已经成为业务同仁的普遍共识。与此相对照,在数字经济时代,个人信息保护风险是新的企业风险(enterprise risk), 不加以防范和控制,信息数据遭窃漏事件若有发生会令企业声誉受损。
关于如何建立个人信息保护的流程体系,笔者建议,企业法务推动建立“个人信息安全评估”体系(Privacy Impact Assessment,下称“PIA” 或 “影响评估”)。建立和善用PIA,好比以一根丝线将犹如一颗颗珠子的个人信息保护需要考量的主要原则、关键概念和步骤等串在一起,整体地呈现给业务同事,并帮助他们养成良好合规的业务习惯。
2018年5月正式生效、堪称个人信息保护和治理的全球标杆的欧盟《通用数据保护条例》(General Data Protection Rules,下称GDPR)为PIA留出了重要地一席之地,包括三个方面的要点:
首先,适用范围。GDPR澄清,不是所有的个人信息处理活动都需要进行PIA,但是如果用新技术处理信息且将对个人权益产生较高风险的,则应当进行PIA。在欧盟随后颁布指引[6]将触发PIA的高风险情况解释为超出“当前成熟的技术知识水平”,由此对个人的权利和自由将产生的影响以及社会后果尚不可清楚预知,如以指纹识别或面部识别来实现通行控制,以及某些新型的“物联网”应用程序等将触发PIA;
其次,时点。PIA应该在数据处理前开展,这与GDPR倡导“自决策和系统设计开始的数据保护(data protection by design and by default)”的原则相一致;
第三,评估的重点。PIA应评估数据处理的目标,处理的必要性和合理性,对于个人权利和自由的风险,以及安全保障措施是否足以消除以上风险。
在参考GDPR 特别是其中关于PIA的相关规定的基础上,2018年6月我国国家质量监督总局和国家标准化委员会拟定并向社会公开发布《信息安全技术 个人信息安全影响评估指南》(征求意见稿,下称“《评估指南》”)。虽然评估指南至今仍然是待定稿,并且即使正式出台也属于推荐性标准,不具备强制约束力,但即便如此,《评估指南》(征求意见稿)对于企业将”良好实践”(best practice)付诸于行动仍然具有较高的参考价值。
与GDPR一脉相承,《评估指南》提出影响评估可以实现的多方面价值,包括识别对个人权益的影响和安全风险;为产品和业务在设计阶段将个人信息保护理念落地提供支撑;以及向合规部门反馈证据,等等。“反馈证据”在GDPR及PIA指引中也有提及,与GDPR树立的“问责制” (accountability)原则相呼应。按照GDPR,“问责制”原则要求控制或处理数据的企业遵守法律,而且能够自证合规;换言之,若遭质疑,企业应承担合规的举证责任。从“问责制“原则的角度,PIA为企业提供自辩的证据价值,也可以据此向消费者和公众表明其个人信息保护体系的水准,赢得信任。试想,在前文提到的我国”人脸识别第一案“中,倘若动物园能够提供上马人脸识别设备时的影响评估文件,将既是有利的诉讼证据,又是有力的公关手段。可惜,动物园似乎从理念上到行动上缺失了关键一步。
《评估指南》提到若干实施影响评估的情形,其中包括新产品或者新服务处于设计阶段或者进入上线阶段;个人信息出境前;以及可能产生“高风险”的个人信息处理活动等。与GDPR的基调相似,使用新技术或者新方案收集个人信息数据的,例如生物特征识别、物联网和人工智能,被认为构成 “高风险”,需要开展影响评估。关于影响评估的具体操作,《评估指南》也有详细指导,操作性强。
与开展其它方面的法务工作类似,个人信息保护领域的法务工作是否能够在企业中顺利且有效地开展,取决于企业高层领导是否重视,有赖于是否有体系与流程来支撑。后者可以依托“个人信息安全影响评估” 来实现。至于前者,笔者认为,鉴于个人信息数据与数字化业务的紧密依存关系,法务有理由和有依据给出建设性方案,将个人信息保护作为企业数字化转型业务的有机组成部分。而从落实影响评估的资源配备上,法务需要参与评估框架的设计,提示风险要点,而具体评估操作则由业务部门或者后台支持部门来负责,做到将“个人信息安全影响评估”融入到业务流程和习惯之中。
伴随着GDPR等标杆性的个人信息保护法律法规在全球不断扩大影响力,以及我国相关规范的持续出台,应该说,企业对于保护消费者以及企业员工个人信息的意识正在提升。但是,保护个人信息不仅仅表现在信息收集时的告知与索取同意,或者跨境传输时为了满足政府部门监管的要求做次评估,更重要的是对个人信息和权益予以切实的尊重,并将理念落地,进而融入企业运营的流程和操作之中。有效保护个人信息,赢得公众的信任,应该被作为企业的竞争优势来对待和争取,成为企业在市场竞争中的加分项目。
[2] White Paper on Artificial Intelligence - A European approach to excellence and trust, European Commission, February 19, 2020. Page 19.
[3] 欧盟与美国重新谈判并于2016年达成关于数据跨境传输的隐私盾安排 (Privacy Shield Framework),增加了美国企业对于欧盟公民个人信息保护的义务,并引入救济机制;但Schrems 的质疑行动并未停止。在欧盟法院刚刚于2020年7月16日就一起相关案件做出的判决中,法院推翻了隐私盾安排。此里程碑性质的最新判决将对接下来企业如何将欧盟公民个人信息合法地传输到美国产生相当重大的影响。
[5] 习近平:推动我国新一代人工智能健康发展 2018-10-31, 来源: 新华网
[6] Article 29 Data Protection Working Party, Guidelines on Data Protection Impact Assessment (DPIA) and determining whether processing is “likely to result in a high risk” for the purposes of Regulation 2016/679
Adopted on 4 April 2017, as last Revised and Adopted on 4 October 2017