当前位置:首页 > 新闻中心 > 详细内容

“人脸识别”成打开隐私“万能钥匙”


中国政法大学传播法中心研究员、副教授朱巍

DCCI互联网研究院院长刘兴亮

中国社会科学院科学技术和社会研究中心主任段伟文

北京大学法学院教授薛军

近期,一系列事件引发了公众对于人脸识别技术滥用的广泛关注。随着人工智能技术不断发展,人脸识别大规模地应用于安防、支付等日常生活场景中,但这项改变生活的技术当前却处于争议中。此前,全国人大常委会法工委发言人岳仲明在记者会上表示,人脸识别等新技术的应用和发展,给个人信息保护带来许多新挑战。全国人大常委会法工委将就有关问题进一步广泛听取意见,深入研究论证。就此,新京智库组织举办“人脸识别不能被滥用”专题研讨会,邀请多位法律学者与专业人士进行深入的探讨。

议题一

新京智库:根据我们的调查显示,许多人对人脸识别的使用已经比较警惕,更倾向于选择输入密码或指纹等验证方式。人脸识别技术为何会出现滥用问题,根本原因是什么?

“技术崇拜”导致人脸识别泛滥,须建立防火墙机制

人脸识别可能诱发智能化官僚主义

刘兴亮:我是一个技术派,人脸识别刚出来的时候感觉还是很酷的。在车站、机场刷脸通过,非常快捷。但现在越来越多的地方和场景都在滥用人脸识别。这是因为人脸识别太方便了,而且准确率越来越高。很多需要核实身份的地方,如小区门禁、上班考勤等都要进行人脸识别。有些是出于管理方便,有些则是商业用途。

人脸识别是个好技术,但是毫无限制地在各种各样的应用场景中使用,“图方便、图省事”,为了效率而不顾背后潜在的隐患。可以说,对技术的盲目崇拜和乐观导致人脸识别技术的泛滥使用。

段伟文:企业或管理部门出于效率考虑,部署了人脸识别。但这只是表面上的原因,更深层次上,还有其他因素,比如说,人脸识别技术使用起来很方便,但可能诱发某种意义上的官僚主义,可称之为机械或者智能化的官僚主义。

现在很多城市依赖智能监测技术手段进行城市治理,如果人们越来越多地生活在智能监测环境之中,就意味着需要一种新型的社会契约,但是人们还没有想清楚。过去讲技术治理通常称之为技术统治论或技治主义,是当作贬义词在讨论,但现在更多的却是肯定,缺乏必要的反思。

使用人脸识别必须要满足必要性条件

薛军:人脸信息和其他一些生物识别信息,都具有终身不可能或者不太可能被更改的特征。公众对人脸识别有担忧,主要原因在于公众担心自己的人脸信息在被搜集、被使用过程中失去控制,特别是很可能在不知不觉中被他人搜集了相关信息。这是人脸信息和指纹等其他生物识别信息存在比较大的差别之处。

由于人脸识别技术高效、便捷,只要把脸凑过去就可以,因此很容易激励大家去使用这个技术。但是技术带来的便利,还要与其存在的隐患、风险进行综合考量。在很多刷脸的场景中,相关操作单位并没有建立数据后台的专业能力,只能连通到其他的存储网站或第三方公司才能完成刷脸认证。这样的机构能否确保信息安全,会不会导致泄露出去,这都是大家特别担心的问题。

所以,如果一定要利用人脸识别进行身份验证,那么必须要满足必要性的条件。比如进入高度机密、特别重要的场合,需要绝对杜绝冒名顶替者时,运用人脸识别具有一定的合理性。但进入自己的小区或者其他营业场所,动用人脸识别的必要性与可能存在的风险就不成比例。从法律上来说,将来可能要规定一个可选择性机制,让人可以选择不采用人脸识别的方法进行身份验证。

建立采集、处理分离的防火墙很关键

朱巍:为什么人脸识别争议这么大,因为人脸是一把钥匙,后面关联到我们的身份信息。如果再结合其他的行为轨迹、IP地址等信息,就可以挖掘出很多个人的信息,并应用到许多的商业场景中去。

人脸识别是趋势,是发展的方向。它能解决很多现在其他方式解决不了的问题。比如网络游戏中规定小朋友不能玩,但如果没有人脸识别,很多小孩就会用家长的账号密码登录使用。

人脸识别重要的是后面的两个字——识别。这意味着它跟个人的隐私权联系在一起。隐私权是绝对的权利。国外有这样的案例,瑞典的一个高中事先未经学生和家长同意,对学生进行人脸识别,结果遭到了瑞典政府的罚款。

因此我要提出两个建议。一是要有一个防火墙。采集者是采集者,处理者是处理者,二者要分开。目前,这个机制还没有建立起来,谁采集了归谁。

二要让用户拥有自我决定权。动物园、儿童乐园等场所做人脸识别,我是赞同的。因为有人脸识别,可以保障这些场所的公共安全。但如果有人不接受人脸识别,那可以用身份证等人工方式辨别。这个决定权应该交给消费者本人。

议题二

新京智库:《个人信息保护法(草案)》第13条中首次明确了个人信息处理的6项依据。如何才能真正确保对个人信息的处理合理合法?

被动“同意”不能真实反映个人自主意愿

需进一步把人脸数据当做特殊类型信息

段伟文:目前普通人的权利意识并不是那么强,在这样的信息素养环境下,把个人信息权利或个人数据权利当成“绝对”的权利,体现出一定的逆向制衡的智慧。

对人脸、虹膜、步态等信息的采集和使用实际上都走在了立法的前面。但与之对应的现实却是缺乏有效保护个人信息权利的机制,个人往往也没有维护自己信息权利的意识和能力。

而且,人脸数据在采集之后完全可以用于其他目的,比如说做情感分析、心理评估等。这就导致了新的信息和认知的不对称。所以,人脸识别数据是一种具有开放性社会法律伦理影响的敏感的个人信息,在一定程度上赋予个人对其人脸数据的“绝对权利”,有利于应对未来可能爆发的更大的社会法律伦理风险。

但我觉得,还是要更进一步,在认知上把人脸数据当做特殊类型的信息。这就需要更多的研究,并且在概念上有所创新,这些概念可以是对经验的提炼或由场景触发,运用它们可以更好地揭示人脸数据的法律与伦理内涵,促进人们对人脸数据滥用的法律与伦理风险的认知。也就是说,人脸识别的法律规制与伦理治理需要更多具有创造性的实践智慧。

同意只是入口,要重视强制性规则设置

薛军:《民法典》规定个人信息是可以基于个人信息主体的同意,授权他人进行处理。这个原则没有问题。除此之外,在其他情况下合理、合法地处理他人的个人信息,必须明确列举事由,并且范围要明确,不能开太大口子。

现在比较大的问题在于“个人的同意”。一是“同意”可能沦为一种纯粹的形式,二是“同意”可能带有某种被迫,不是自由、真实地反映个人自主意思的“同意”。所以,怎么确保“同意”机制不沦为形式,这值得关注。

我曾经与欧盟国家的数据保护专员讨论过这一问题,发现他们也面临同样的困惑。虽然“同意”规则可以规定得比较细致,但是企业在获得用户的同意方面,可以很容易地做到形式上的合规。而如果用户需要利用企业提供的服务,其实就只能同意,否则就没有办法获得服务。

我可以很明确地说,未来能够真正发挥作用的,是对于正当、合理、必要收集个人信息之类的带有强制性的规则。“同意”只是一个入口,不一定能够真正发挥把关的作用。我认为未来的个人信息保护体制应该是以行政为主导的。因为个体太分散,维权意识和能力都比较弱,即使被侵害个人信息权益,也很难证明侵害者以及实际的损失,所以还是要高度重视相关法规中带有强制性特征规则的设置是否合适、充分。

个人隐私权多数时候无需让渡

刘兴亮:个人隐私权,包括肖像权,是我们每个人“绝对”的权利。当然,这种权利在某些时候要做一定的让渡,比如在面对突发公共卫生事件时,会有一些措施需要个人做出让步,像疫情期间的健康码就是一种案例。

一些企业和机构可能认为人们应该是不在乎自己的隐私权,或者会为了某些便利而放弃隐私权。这是不对的。个人隐私权一定是在极少数的情况下才做出让渡。

朱巍:技术的发展不能牺牲个人的权利。“同意”有主动同意和被动同意两种。《个人信息保护法(草案)》规定的敏感信息处理的“同意”原则是主动同意。被动同意则包括一揽子协议,比如企业弹出的“同意”事项。通常,用户都没有仔细看,全部点同意。其实,很多隐私条款是需要单独同意的。

而且,互联网技术不断迭代,在迭代过程中会更改网民协议和隐私条款,但并不会覆盖此前的协议。这意味着,这些应用或平台在迭代技术,甚至变更服务的同时,却不缩减索权,导致它们的索权范围非常大,有些甚至已经跟现在的服务没有任何关系。

议题三

新京智库:人脸识别技术在使用过程中,“同意”是一个重要环节。《个人信息保护法(草案)》第14条对不同情形的“同意”做了细化。此外第24条、第30条,也都涉及相关内容。“同意”权利真的能保护个人隐私和数据安全吗?

人脸识别使用的必要性,才是“同意”的关键

保护个人隐私不宜过分依赖“同意”

薛军:《个人信息保护法(草案)》有一个很大的亮点,就是对“同意”规则进行了细化。主要的思路是针对不同的场景,对于“同意”要求的强度或者方式,进行差异化设置。这体现出区别对待的立法思路。

同时,可能还考虑了匹配性、比例性的要求。比如,区分敏感个人信息和其他个人信息,相应的,对这些信息进行处理时,在法律层面上所需要的“同意”的方式就是不一样的。

“同意”能否保护个人隐私和数据安全?我觉得肯定是能发挥一定的积极作用,至少告知了用户,让用户清晰地了解其个人信息是否被收集了,并且如何被处理了。同时,也便于相关监管部门审查,企业是否存在违规搜集个人信息的问题。

但是,也不宜过分依赖“同意”。因为现在的各种个人信息处理的主体,肯定都会详尽地研究个人信息保护方面的法律法规的要求,并做到形式上的合规。而用户如果真的需要这个服务,他就只能同意,如果不同意就不能享有服务。

“同意”环节里最重要的是,它是不是应该放在同意范围内

段伟文:现在很多所谓的隐私条款,或“同意”条文,都只是为了达到数据合规的要求。但里面并没有讲清楚,这些采集的数据到底是干什么用,有时甚至明确表示,采集的数据如果对用户造成伤害,企业是不负责任的。

这样的“同意”条款存在两个问题,一是形式化,过于冗长,让人不好理解。二是,有的企业利用这样的“同意”条款,使得对用户隐私的侵犯和数据的泄露,变成了合法合规的事。

所以,从原则上说,“同意”的权利当然是需要的,但更重要的是如何能够真正地保证个人隐私和数据。

这意味着企业必须要有相应的技术措施和手段,如果没有采取相应的技术措施和手段,这样的“同意”就是形同虚设,甚至是明面上的欺骗。

“同意”环节里最重要的一点是,我们同意的是什么,以及它是不是应该放在同意范围内。因此,讨论“同意”要从必要性的角度切入,让一些不必要的应用受到制约。

现在这一诉求是非常明确的,就是要禁止一些领域里不必要的人脸识别,比如公园进行人脸识别就是没有必要的。

知情权是“同意”的前提,自我决定权是“同意”的核心

朱巍:“同意”不单纯是能不能用的问题,这不是问题中最重要的。“同意”的核心,首先是跨场景使用问题。但是,目前这个问题在《个人信息保护法(草案)》和《民法典》中都没有规定。

比如说用户在这个场景上“同意”了,但你却拿这些数据用到其他诸如人脸适配、消费记录等场景里,这样就有问题了。

其次,用户要有知情权。没有知情权的“同意”没有意义。比如,用户要知道这个人脸识别到底用来做什么,对接什么数据库,数据会保存多久,何人使用、何时会删除等信息。

第三,用户要知道对其个人信息、数据进行处理用的是什么技术。现在有一种成熟的照片活化技术,可以将静态照片变成动态,从而能够用于进行人脸支付等场景。

因此,应该在用户“同意权”里加更多的分支,包括技术处理的限制,数据告知的限制等。

知情权是“同意”的前提,自我决定权是“同意”的核心。讨论“同意”要把握住这两点。

最后,对于个人的敏感信息还要进行单独的“同意”。敏感信息在不同的法律规定中的定义都不一样。如果这个问题得不到解决,那么“同意”的问题就解决不了。

议题四

新京智库:人脸识别被滥用的现象也侧面反映了科技伦理问题,目前有哪些手段可以缓解技术与风险之间的张力?未来新技术的出现应如何建立相应的伦理,并重获公众的信任呢?

约束人脸识别技术,需要订立新型社会契约

讨论人脸识别技术伦理的三个前提

段伟文:讨论人脸识别技术伦理、规范的建立,首先要考虑三个层面的问题。第一,人脸识别技术本身存在局限性和由易获得性造成的滥用风险。只要不是百分百精准,就意味着技术本身存在风险;同时,人脸识别技术也是非常容易获得的,但技术水准参差不齐,人脸识别技术因门槛低易滥用而具有很大的风险性。

第二,对于个人信息的保护和数据治理,公共部门既是数据治理的监管者,又是数据的应用者。虽然政府在很多领域具有更强的权威性,推广起来更高效,但公共使用的边界是什么,技术治理的公共伦理又是什么?

第三,从技术的长远发展来讲,其应用怎样才能普惠公众?这可能需要订立新型社会契约。没有契约,任何企业、任何人、任何地方只要存在可能就能够部署人脸识别技术,采集的数据还能够作为其他用途,这其中的风险非常大。

考虑这三点后,我们可以从三方面着手。一是相关技术的部署方和相关企业的利益相关方、受益人的责任,并且这种责任是要面向不确定性的开放后果的责任,要通过哲学上、伦理上的考量,一定程度上体现在法律里面。

二是要通过设计来保护一般使用对象、被监测对象的权利。比如对人脸数据的加密技术或者遮蔽技术。

现在,人脸识别技术已经开始打破皮肤表面和表面下的环节,通过热敏识别,在戴口罩的情况下也可以进行人脸识别,这意味着在技术上已经能够越过体表识别体内的血液循环,包括静脉曲张甚至甲亢都有可能识别。因此,需要加入相关的加密技术来保密数据;如果没有,又没有相关的法律和伦理规范,技术就不能“跑”这么快。

第三,我们不要忘记非技术性解决方案。在依靠大量技术手段时,同时要看到更多的人,包括老年人、少年儿童等需要特殊保护和关照的群体,应该提供一些技术手段之外的非技术手段来满足这些人的需要。

约束新技术需要一套新社会规制体系

薛军:高新技术的使用很受关注,需要一些社会规制,包括通过制定标准、法律法规、行业守则等。规制的体系可以很丰富而且多元化。不能把法律当作唯一能够发挥作用的角色,还需要通过更多灵活、多元化的机制。这是因为技术本身发展很快,法律很难及时制定与修改。

所以,我们一定要发展出适应高科技时代的新社会规制体系。技术准则、安全评估准则或者技术规范等,都是很有效的规制手段,都能够发挥一定的作用。具体到人脸识别技术,目前虽然有一些规制手段,但是还是欠缺。

比如小区能否使用人脸识别技术,至少得有一个相对比较权威的指导性技术准则来说明,在什么情况下,有技术保障能力、具备防范风险要求的时候可以使用,而其他情况则不能使用。如果有这样的科技准则就可以获得很好的指导,并且标准可以随着时间的演变不断发展。

同时,技术问题可能还是要回归到技术层面解决。比如像虚拟号码技术以及条码化就解决了网约车、快递件上个人信息泄露的风险;比如在进行算法模型训练时,模型动而数据不动等方式,也有利于确保不产生数据合并、转移等风险。

朱巍:对相关技术进行立法,并不是拖了技术、社会发展的后腿,而是为了维持社会更好的平衡。不能因为人脸识别技术提供了更高的效率,就把效率当作新的正义观。效率任何时候都不可能成为正义观,除非有一定的背景制度。这个背景制度就是我们今天讨论的,人脸识别技术需要一定的约束。只有在具备约束的背景下,技术产生的效率,才能被认为符合正义观。

现在很多企业强调科技向善、强调算法伦理等问题,不是在拉效率的后腿,而是要让整个社会的福祉和个体权益的正义回到很高的位置上。人永远都是目的,而不是手段。

来源:新京报