好书·书摘丨使用人脸识别的法律边界在哪儿?大数据会带来什么负面影响?

上月,为保护个人信息,一男子“戴着头盔看房”的短视频在网上流传,引发网友广泛讨论。近日,多地政府部门相继出手:天津、南京、杭州纷纷出台政策,禁止非法采集人脸信息、禁止强制进行人脸识别。
图源见水印
智能时代,手机appapp超范围收集、强制收集用户个人信息的行为频频遭到诟病。本月1日,国家网信办发布《常见类型移动互联网应用程序(app)必要个人信息范围(征求意见稿)》,其中明确规定了地图导航、网络约车、即时通信等38类常见类型app必要个人信息范围。均没有包括人脸识别、指纹识别等生物信息的相关内容。另外,该征求意见稿还明确,只要用户同意收集必要个人信息,app不得拒绝用户安装使用。
而在今年10月首次亮相的《个人信息保护法(草案)》中,规定了个人在个人信息处理活动中的权利,即个人对其个人信息的处理享有知情权、决定权,有权限制或者拒绝他人对其个人信息进行处理。技术发展潮流之下,对个人信息的采集、数据的使用更加需要边界。
《数据的边界——隐私与个人数据保护》
[荷]玛农·奥斯特芬 著
曹博 译
上海人民出版社
2020年08月
大数据被许多人视为极具前景并富有发展潜力。事实上,由于大数据的可能性似乎无穷无尽,它常常被誉为治愈许多弊病的万能药方。政府、商业机构和个人每天都在作出决定,而大数据可以使决定变得更加明智。基于从大数据中获得的知识或信息进行决策,通常可以让人们更深入地了解政策或业务选择,同时降低与决策相关的风险。大数据解决问题的能力受到赞扬,特别是当它被用来解决紧迫的社会问题时,比如前文生物银行的实例中提到的疾病和不断上升的医疗成本,或者作为一个经济推动者参与到数字单一市场的讨论中。因此,大数据可以节省资源、提高流程效率、防止欺诈、增进收益、作出更好的决策。
数据和大数据技术还可以为那些难以回答或看似不可能回答的问题提供答案。大数据提供的答案以前是人类力有不逮的,也是我们“无从发问”的。对不同来源的数据进行的收集和分析揭示了可以解释的模式,从而产生新的信息。存储和处理成本的不断降低,扩展了大数据的上述效益,增加了大数据的潜力和普及度。这样的例子不胜枚举,越来越多的应用程序正在开发中。然而,尽管大数据可以通过多种方式来改善社会,但正如下节内容所述,它也会对个人生活产生负面影响。
图源:连线insight
尽管大数据有很多优点,但人们普遍担心它可能带来的负面影响。此外,大规模收集和处理个人数据,以及越来越依赖算法决策,可能对个人权利和自由产生深远影响。可能的负面后果如下文所示,并根据受影响的个人权利和自由进行分类。在这一讨论中,负面影响应该被看作是一种连锁反应:对下列权利和自由的微小的直接干预可以在长期内增加或干扰其他权利和自由,并对个人的机会和生活产生持久影响。一个微不足道的决定,如个人自愿提供数据或公司对人进行分类,都会影响某人的未来并改变其人生进程。除了直接影响或干扰之外,还有一些影响虽然不大,但累积起来会产生更严重的结果,甚至某些决定及影响会更为长远或产生严重后果。
01
个人自治
大数据将个人自治置于危险之中,因为它妨碍了个人在没有通过扭曲或外力操纵的情况下自主选择并自由生活的能力。大数据可以通过多种方式限制个人自治。
首先,用于收集个人数据的手段、数据的处理方式以及缺乏透明度,均对个人的自治和信息自决施加了压力。例如,当在数据获取阶段寻求收集数据的同意时,通常不清楚个人同意的是什么,如在数据分析阶段如何处理个人数据、分析的目的是什么,以及对其个人数据的采集和分析或者他人通过应用阶段可能对个人生活造成的影响。考虑到大数据固有的复杂性,以及经常出现的关于未来目标和处理的不确定性,以适当的方式通知个人较为困难。这里的限制在于个人自治的自我决定方面:当一个决定是基于不完整或无法理解的信息时,很难接受它是自主作出的。
其次,无处不在的数据处理会产生一种监视的感觉,从而抑制个人行为。这通常与下文讨论的言论自由的寒蝉效应有关,但它与个人自治同样具有相关性,因为它对个人身份的影响。人不是单一维度的:我们的身份和个性的不同方面,取决于我们在哪里以及和谁在一起。我们表现自己的方式取决于我们是和家人、朋友还是同事在一起。我们对外界越透明,越觉得自己被跟踪和监视,就越会抑制自我表现的多样性,以及我们探索、发展和改变的欲望。在缺乏自我呈现的可能性的情况下,我们为了遵从单一身份的虚假理想而装腔作势,以避免冲突和社会排斥,沦为多元社会中被接受但归于消沉的一员。
在应用阶段,更直接的技术被用来积极地影响个人的行为和选择。信息是如何(以及哪些信息)呈现给个人,他们被给予了哪些选择,哪些信息被隐瞒,以及这些信息与他人所接收到的信息有何不同极大地影响甚至决定了我们的选择和信任。一般来说,人们会从他们面前的选项中进行选择,而不会询问这些选项是如何实现的,它们是否代表所有选项,以及哪些选项被故意排除在外。因此,基于大数据线上个性化会对个人自治带来压力,例如,当商业机构利用选择幻觉的效果为自己牟利时。个性化也可能变成有意的强迫、说服或操纵。一个臭名昭著、发人深思的例子是社交网络“情绪传染”实验,在这个实验中,研究人员通过决定什么内容出现在他们的脸书时间轴上来影响人们的情绪。通过个性化说服的例子,目前通常用于商业牟利的是行为定向和通过a/b测试进行的网站优化。
有关个性化和个人自治的一个相关担忧是,个人最终会陷入“过滤泡沫”。这种担忧关注的是个体本身,而不是有意的外部压力。令人担忧的是,个性化会导致过滤泡沫,亦即信息茧房或回音室,在这个由有限信息组成的世界中,个人被孤立,而这些信息总是证实他们的信念和观点,而不会暴露在不同的信息和观点中。在这种情况下,人们以为自己作出了独立的选择,自主形成了观点,但实际上,他们受到提供给他们的有限的、定制化的信息的影响,限缩了他们对世界的认知。
图片来源:flickr
内容和体验个性化的方式,以及观点和行为如何被引导,在它们的背景下可能微不足道。但大数据不需要产生巨大的、迫在眉睫的影响,就能对个人自治构成威胁。个性化正迅速变得无处不在,影响着我们在线上和线下的决策及生活。危险之处在于,对个人自治微小但不断累积的减损,与大数据以具有重大影响的方式塑造我们生活的潜力一样多。长远来看,由于其周围的不透明性,累积效应可能更加危险。建立在上述基础上的有关个人自治受限的小例子既不会激起愤怒,也不会让人们清楚地认识到它们,因为孤立地看,它们的影响小到常常被忽视。过滤泡沫,或选择受限的小实例,或其他外部压力,就能产生连锁效应,改变人们是谁,他们如何发展,以及从长远来看他们会得到什么样的选择和机会。
更糟糕的是,通过大数据收集的知识是有争议的。大数据产生的基于相关性的知识可能被误认为是因果关系,而实际上它们只是巧合。当这些相关性被用作决策的基础时,会导致虚假的积极影响和负面影响,最终出现谬误。另外来自大数据的知识往往被认为是客观的,而事实并非如此。分析的设计和数据(来源)的选择都会影响结果,并且很少只有一种可能的结果解释。不管使用了多少数据,不管模型有多复杂精巧,大数据总是有限地反映现实。此外,还有人担心“信息垄断”和数字鸿沟会加剧不透明和操纵的风险。世界上数量最大的数字数据是由一些大型企业收集和存储的,如谷歌、脸书和亚马逊。抛开有关权利和所有权的问题,这些公司对数据和数据所属的个人拥有相当大的权力,因为它们掌控着用于特定类别服务和存储数据的基础设施的最常用平台。
图源:连线insight
总之,大数据拥有劝服人们行为的力量。除了他们的利益往往与个人的利益不一致这一事实外,还会欺骗个人,破坏他们的自由和明智的选择。
上述情况可以外推到这样一种担忧,即我们的身份越来越多地由外部力量构成,而这些外部力量中,大多数只关心我们的个人数据和行为的资本化并获取收益。累积的和无处不在的影响和自由选择的减少威胁到人们的个人自治,并最终威胁到他们的身份——自主成就自我的可能性。
02
隐私和数据保护
大数据始于数据的收集,包括有关个体的个人数据。因此,大数据有可能对隐私和数据保护的基本权利产生负面影响。
首当其冲的是,在收集个人数据时,数据保护的权利受到威胁。大数据的某些特征,比如强调积累尽可能多的个人数据,以便为含糊不清或未来的目标展开持续分析,这与个人数据保护的原则背道而驰。大数据固有的这些特征与旨在保护个人的数据保护原则相冲突,比如目的限制原则,该原则指出个人数据只能被用于预先确定的特定目的。此外,数据的收集可以揭示一个人生活的私密细节,在应用阶段所作的决定也会影响隐私权。总之,大数据有可能像其他任何数据收集开发或技术一样侵犯人们的隐私权和数据保护权。然而,大数据的一些特点使得它与隐私和数据保护息息相关。
大数据的第一个突出的、有问题的特征是收集和处理的数据体量。从大数据从业者的角度来看,收集更多的数据通常被认为是更好的选择,但收集的数据越多,对个人私生活的潜在侵扰就越严重。更多的数据通常会产生对个人更深入的了解。随着数据量的增加,通过数据安全和匿名化来保护人们的隐私和个人数据也变得更加困难。此外,这与数据保护法的最小范围原则相抵触,该原则要求个人数据必须“是充足的、相关的并限于数据处理目的最小必要范围”。有人质疑,当前实现最小范围原则的方式,在大数据的环境下是否能够成立。
大数据的不同还体现在多个不同来源的数据被整合到一个数据集合。数据集合本身并不是一种新的风险,但这种方式越来越普遍且结果难以预测。在整合数据的基础上,可以作出新的推断:数据的组合可以“创建”关于个人的新数据。这种结合对大数据产生新的隐私问题方面的第三个特征也很重要:它的预测能力。这是大数据应用阶段的关键。前文中描述的预测模型和自主学习算法可以在个人并未主动提供的情况下生成个人数据;这些数据可能准确预测某人未来生活的细节。这就产生了数据保护和隐私问题,因为个人与他人之间可能存在认知鸿沟,他人可能比本人更了解自己。个人有时并不愿意公开某些数据,例如涉及某些不治之症(患病几率增加)时。人们可能有不想知道的意愿,而其他拥有这种知识的人可能也会干扰这种意愿。在应用阶段,许多风险和负面影响不是来自个人数据处理本身,而是来自大数据(结果)对个人的应用。
本文摘自《数据的边界》,上海人民出版社2020年8月出版,略有编辑,以原文为准。部分图片来源于网络,侵删。
来源: 东方学习读书会
上观号作者:书香上海