陈佳欣|大数据时代下隐私的群体形态及法律回应

您所在的位置:网站首页 数据匿名化对群体差异的影响 陈佳欣|大数据时代下隐私的群体形态及法律回应

陈佳欣|大数据时代下隐私的群体形态及法律回应

2024-07-11 03:54| 来源: 网络整理| 查看: 265

原创 陈佳欣 上海市法学会 东方法学 收录于合集 #智慧法治 11个

在大数据时代,对隐私的窥探已从个体形态向群体形态转变,对数据的处理利用已不以个体识别性为前提,用户标签下的价格杀熟、信息茧房、算法囚徒等问题已带来群体层面的隐私侵害,由此产生隐私及隐私利益的群体形态。需对隐私的群体形态作出法律回应的逻辑起点是,个人信息保护理论和制度框架难以对其周延。法律应以维护群体共同权益、减少歧视对待、平衡数据共享为三大核心回应点,聚焦于“隐私数据化”的过程,不通过增加新的数据类型或受保护群体,而是对整体性和部门性的保护路径进行扩展:一是完善用户标签下的数据权利,二是强化处理者的数据义务,三是构建数据利益平衡机制,以实现个体维度向群体维度、个人本位向社会本位的隐私保护转变。

引言:大数据时代下隐私群体形态的产生

在数据价值日益多元、隐私利益相互关联并产生群体形态的大数据时代,数据处理的对象已从个体转向群体,个人信息保护不再是预防识别个人的问题。若仍遵循传统范式,仅将隐私保护理解为个体维度的利益、单纯给予个人主义的保护,已然无法解决大数据时代面临的隐私困境。

(一)

从“隐私的个体形态”到“隐私的群体形态”

信息时代下无处不在的大数据,让人和个人隐私信息不再以原子化的、与世界隔离的个体形态存在,各种即时通信媒体、在线社交平台、社群网络让每个人的行为记录都可能与其他人相关联,使得人与人之间的连接机会和密切程度大大增加。由此,隐私利益的相关者不仅仅是个人而是具备关联性的一群人,人和个人隐私信息一起融入并形成了高度社会化的“隐私的群体形态”。“隐私的群体形态”包括但不限于以下特征:其一,大数据分析模式下关注的不再是特定个体的数据,而是大规模人群的集成数据,如用户画像。其二,大数据技术主要通过不特定目标抓取、收集和处理不确定数量群体的信息,不再直接针对个体,而是在集合、群组与类型意义上统计其相关性。其三,个人成为一个个类型化标签的数据点,算法决策不需要与真实世界中有血有肉的个人关联,只需通过非个人的、离散的、可再

分重组的各种数字轨迹,就可形成“超主体”的“统计学身体”;其四,各种广泛使用的工具全天候、全覆盖地记录着人们的行迹和信息,并将记录提供给第三方,庞大而普遍的数据收集形成了一个新型的敞视社会。

(二)

对隐私的窥探从个体形态向群体形态转变

用户数量的高速增多和用户数据体量的持续庞大化,使得数据处理者的分析对象不再局限于个体。加之为了防止个体被精准识别,各国普遍要求数据处理者对个人数据采取匿名化处理,这就导致大数据分析对象往往不是各个特定的个体的隐私信息,而是已匿名化的海量的信息数据。其分析的基本单位也就由个体转变为群体,对隐私的窥探也从个体形态向群体形态转变,即对隐私信息收集、处理的最终目的往往是确定个人的类别、群体,而不是针对某个特定的人。数据处理分析模式的转变改变了以往数据结构中的利益格局,如用户画像有赖于对群体的识别,并与特定数据主体的身份无关,而该种群体分类,在公平对待其所识别出的群体方面有着严重的问题,因而影响的不是单个个体的利益,而是相关群体的利益。

(三)

对隐私的侵害可在不识别个体的情况下进行

大数据挖掘和分析技术能够从杂乱无章的原始个体性数据中整合、分析出群体性的抽象信息或知识。这些原始个体性数据可能是从已被个人同意收集的碎片化数据中提取而来,也可能直接抓取自公开领域。以用户画像为例,其数据来源往往都是经过脱敏处理的用户行为信息,不会直接识别到用户个人,它可以在不识别个人身份、不使用任何特定个人数据的情况下进行运作。因而这种信息既不能视为非个人信息,也不能等同于可直接识别的个人信息,若将其划入个人信息,会带来个人信息保护范围过宽的问题,这就导致个人信息保护法难以周延用户画像侵害。

需要强调的是,即便该类行为在现行法下不具有形式违法性,但依然可能造成对与聚合信息相关联人群的隐私利益侵害。该种侵害可能并不直接作用在任何具体个人上,因为个人已消融在某一“数字人群”中,沦为无法摆脱群体性数据分析约束的某一数据点;但却潜移默化、深远持久地影响所有人的所处环境,进而侵害相关群体的利益。这是隐私的群体形态及其利益受到侵害的典型表现,也是当下个体隐私法律保护框架所难以周延的利益范畴。

一、困境:隐私群体形态带来的隐私侵权新情形

如前所述,大数据时代下,隐私的表现形态从个体扩展至群体。隐私群体形态的产生,带来了隐私侵权的新情形,从而给现有隐私保护造成困境。原因在于隐私及隐私利益的群体形态,并不以数据内容的涉他性和危害范围的广泛性为界定标准,其内涵是,数据处理者通过大数据技术对隐私信息进行标记、分类、分析和评价(以用户标签为中心),由此生成的群体被以特定方式对待(以算法歧视为典型),从而在群体层面发生隐私侵害。基于用户标签的形成和应用过程进行分类(图1),三种隐私侵权新情形下的隐私保护困境亟待破局:

图1 用户标签系统功能架构图

(一)

用户标签对特定群体权益造成侵害

用户标签,是一种对群体行为特征模式的概括、总结与预测。基于用户标签技术形成的数字业务,如用户画像、用户群体分类、市场需求分析、定向内容投放、定向定价、个性化推荐机制、自动化决策等,可为平台企业带来巨大的正外部性效应。然而,平台企业在大数据技术下所形成这种“超级权力”,

对于处于弱势地位的用户,会在群体维度上释放负外部性。直接的表现是,平台企业通过“贴标签”形成用户画像并对画像落地应用,往往会对特定群体的权益造成侵害。对用户画像的法律规制,《信息安全技术—个人信息安全规范》作出了一般禁止性规定,包括三个方面:一是用户画像中对个人信息的特征描述不应包含淫秽、暴力等内容,不应表达残疾、疾病、民族等歧视内容;二是在业务运营或对外业务合作中使用用户画像不应侵害公民及其他主体的合法权益,不应危害国家、社会利益、社会秩序;三是除在获授权的范围内使用个人信息外,在使用个人信息时应消除明确身份指向性,避免精确定位到特定个人。以“某程大数据杀熟案”为例,法院认为某程通过分析用户的订单数据形成用户画像、为了解用户偏好收集信息的行为超出了必要范围,以此进行的价格差别对待更构成了消费欺诈,遂判令携程向用户承担退一赔三的法律责任。此外,违反用户画像的使用限制,还可能会受到网络安全管理机关、市场监督管理机构等行政机关的行政处罚。

虽有责任承担和惩罚方式,但这始终是一种事后规制。且在大数据技术的快速迭代下,平台企业渐渐不需要直接使用特定自然人的个人信息形成“直接用户画像”,而能够通过使用来源于特定自然人以外的个人信息,如其所在群体的数据,形成该自然人的特征模型,即“间接用户画像”。由于间接用户画像是基于具有相同特征的固定人群形成的画像,与具体自然人的关联性并不紧密,因此广泛应

用间接用户画像对于平台企业而言不仅能够有效规避个人信息收集带来的侵权风险,也能够实现精准营销带来的获客和成交。而个中侵害往往比个人信息侵权的波及面更广,它通过标签的形成应用进而侵害特定群体的权益。

(二)

用户群体分类导致特征群体被歧视对待

除了用户标签技术本身带来的侵害外,基于用户标签形成的平台内部应用—用户群体分类,往往容易造成因共同特征形成的某一类群体受到歧视和差别对待。此外,网络服务中因用户群体分类导致某一特征群体受歧视对待的情形也十分多见,如用户提交了自己的消费记录、薪资水平等信息,却被用户标签定位为“缺乏足够消费能力”,使得实际能够获得的信息服务的内容和类型受到限制。

(三)

个性化推荐机制使群体层面的利益受到减损

用户标签的应用又分为内部经营使用产品和外部自动化产品,二者的实质都是对群体形态隐私的利用,外部自动化产品则是对内部经营使用产品的落地应用,与平台企业获利机制直接挂靠。用户画像、用户群体分类是内部经营使用的典型方式,而外部自动化产品中以个性化推荐机制的应用最为广泛。

个性化推荐机制,是根据用户画像做出“千人千面”的内容、商品等展示功能。其通过挖掘和抓取个体在数字世界中“渗漏”下的行迹、喜好、需求,对个体的认知和行为进行分析和判断,从而干预和改变个体的行为决策;进一步地,它通过勾连起数据世界中一个个的个体“数据点”,就个体性的行为轨迹分析得出群体性的行为规律,从而在群体层面施加影响和控制。可见,基于算法技术的个性化推荐,实际上是用户群体共同以隐私让渡换取了个性化,其通过影响个体所处的环境进而侵犯群体利益,使得群体中的个体、由个体形成的群体都无法逃脱“算法黑箱”的裹挟。同时,用户群体作为隐私信息数据主体,其从中获得的利益却远远低于平台企业通过大数据技术生成的内外部应用产品取得的利益,二者之间完全不具有对价性。

如上,平台企业通过大数据技术对个人信息进行处理分析所带来的利益风险,不仅具有个体性,更具有群体性。传统隐私关注个人,而不是人的类型,而大数据技术聚焦于大规模人群或者说所有人。在传统隐私保护中,“隐私”和“群体”似乎互相矛盾,但回归现实,隐私的群体形态是大数据时代下已然扩展并大量存在的利益表现形式:群体因被标签定位而屡遭“杀熟”、被迫置身于特定的信息茧房受到信息圈养;群体因某种共同特征而受到歧视、无法得到合理对待;群体因被困于某类用户画像、个性化推送中而沦为算法囚徒……由此形成的群体隐私风险与侵害,对个人本位的隐私保护俨然是一种挑战,故应重新审视传统理论的解释力与现行规范的适用性。

二、破局:从个体维度到群体维度的隐私保护转变

(一)

逻辑起点:个人本位信息保护理论的不周延性

从国内外隐私保护立法来看,“隐私”是一项个体维度的概念,其内涵是在公私领域二分的基础上确定的。相应地,隐私保护的制度、技术和手段也就侧重于个人层面,我国民法典中规定的“隐私”也强调这一概念的排他性和私密性;从1980年的OECD到如今的GDPR,数据保护也无不与个体密切联系,数据权利也在个人权利的框架之内。而上述个人本位的信息保护理论难以周延隐私群体形态及其之上的利益,表现在以下方面:

1.用户标签不需要识别到个体

个人信息保护法强调个体的不可识别性,侧重在个体维度保护数据主体的隐私利益。其中的隐私保护逻辑为:只要无法通过个人信息不法识别到个体自身,就可以保障个体的隐私数据利益不受侵犯,即以保护个人对自己数据的访问和使用的控制为中心。在此基础上产生的保护隐私的方式主要是对数据进行匿名化处理或者在使用隐私数据之前征求知情同意。

然而大数据时代,由于数据收集不是针对某个特定的人,最终目的往往是确定个人的类别、群体,因此不需要识别到个人,也不需要个人的知情同意。如用户画像和自动化决策,都不要求识别、筛选或评估某个特定的数据主体,而只赖于对群体的识别,与可识别的个人无关。这种不能够被识别到某个自然人的数据(匿名数据),难以认定为该自然人的数据,其共享和利用也就不再需要征求其同意授权,实际上也无法征求。因此,以个体识别性为中心的个人信息保护法,其法理逻辑和规则方式难以延至用户画像和自动化决策,难以囊括保护隐私的群体形态。

也需注意,在当下隐私保护规范中,匿名化处理确实能达到保护个人隐私的目的,但聚合层面的数据揭示了某个群体的特征,若对此还只强调通过匿名来保护个体形态的隐私,而遗漏保护群体形态的隐私,显然是不充分的。匿名化技术在应对个人层面之外的隐私侵害时,作用是极其微弱的。

2.个体无法及时感知被分类和歧视

当前数据保护主要是以数据控制者和数据主体之间的合同关系为前提(主要表现为用户协议和隐私政策),但在大数据技术如用户标签处理模式下,这种一比一的平等关系已不复存在。

一方面,个体往往是在不知情的情况下因某种隐私信息特征的存在而被划入自己并不知晓的群体,也就是群体成员不知道自己实际上是群体的一部分,不知道自己个人的隐私已融入形成了群体形态的隐私。此外,算法设计者还可以自主设计“标签”和“群体”,这就意味“群体”的存在和构成可能完全超出群体成员的预见和控制范围。然而群体形态的隐私利益是显而易见的,即使群体本身不受法律保护,但其共同特征也往往被当作商业机密来保护,能为平台企业带来具有再生性的数据分析利用的高度价值。

另一方面,由于群体歧视过程不可见、机理不公开,个体往往不能够及时感知自己因被标签分类受到歧视,受损群体也很难承担证明责任。相较于个人隐私泄露这一损害结果,大数据分析作用于群体层面的共同损害往往是隐蔽而长期的。就如同法国哲学家福柯(Foucault)提出的“全景监狱”,囚犯看不到监视人,彼此也缺乏信息沟通,但狱卒监视的视线遍及所有牢房,故即便监视人不在场,囚犯们也会认为在被监视而不自觉地接受外在的控制并约束自己的行为。比如算法分类可以在符合匿名化的基础上对群体进行控制和引导,这些影响最终会传导至个人。这种有针对性的“监视”很难被及时感知到,但仅仅是被分析就可能会对隐私利益产生负面影响。然而,现有个人信息保护对此类问题的解决却存在着局限性。

3.自动化决策反对权的对抗作用有限

个人信息保护法第24条虽然规定了对自动化决策的反对权,但这种权利的对抗作用仅施加于结果层面,在分析层面(如用户画像的形成过程)就很难用自动化决策反对权实现保护。更何况,自动化决策只是用户标签的一种利用形式,隐私的群体形态不仅出现在自动化决策等类似应用场景下,在其他场景中亦有呈现,如医疗和生物大数据下群体形态的隐私。

以上,个体维度隐私权利的相关主张不足以解释数据资源背后的群体维度的权益,恰如用户标签不仅描述了自然人的个体属性,还反映了被忽视的自然人群体的共同属性。用户标签不等同于个人信息,用户标签下生成的隐私群体形态,亦是个人隐私权、个人信息保护法难以囊括的内容。当下个体维度的隐私保护逻辑难以兼容群体维度的隐私保护,个人本位的制度框架难为隐私群体形态上的利益提供周全保护,故聚焦于隐私的保护应从保护个人身份(隐私的个体形态)扩展到保护个人的类别(隐私的群体形态)。这是应对隐私的群体形态予以法律回应的逻辑起点。

(二)

核心要素:社会本位下的利益平衡考量

对隐私的群体形态进行法律回应的理论逻辑,具备三大核心要素:以群体共同权益为保护对象、以减少群体被歧视对待为价值导向、以平衡数据保护和数据共享为基本进路,从而实现大数据时代下的隐私保护、数据治理由“个人本位”向“社会本位”的转变。

1.以群体共同权益为保护对象

在大数据时代,相对于个体隐私数据,基于大数据集合分析得出的对群体的“推断”才具有真正的利用价值,换言之,用户标签内容所包含的社会关系是用户标签具有群体性权益的根本原因。

其一,从内容来看,通过大数据分析所得出的“推断”是一种典型的群体形态的隐私,大数据场景下提到的数据泄露实际上就是对“推断”这一分析成果的泄露,而非对源数据——个人隐私数据的泄露。其二,从性质来看,“推断”是关于某一类群体的特征数据,不满足个人隐私数据定义中的“识别”标准,即群体形态的隐私是无法复原至个人的、“去个体化”的隐私。其三,从损害结果来看,“推断”的滥用所造成的侵害远远超出了个人范围,往往是群体乃至社会公众,因此群体形态隐私的风险承担者是群体而非个人。

上述三重原因共同证成了对于隐私的群体形态应以群体共同权益为保护对象。进一步而言,其保护重点并非个体对自己隐私数据的访问和使用的控制,而是置于群体形态下,群体和群体成员对群体层面风险的知情、拒绝和对抗。这种表现可以是了解用户标签内容、用途、目的等事项的数据处理知情权,可以是拒绝被标签、撤回生成用户画像等数据处理限制权,还可以是反抗因大数据分析技术遭受的歧视和差别对待的权利。

2.以减少歧视对待为价值导向

不论民族、信仰、性别、年龄、文化程度、职业、收入等,每个人都应当都是平等的。然而在大数据时代下,人却可能因为用户粘性、消费能力、社交属性等因素,在平台算法中被区分等级。一个个自由平等的法律主体,在平台那里却成了质量各有优劣的用户,这种歧视和差别对待,有违现代法律以权利和公平为核心的规范目标,应予反对。

需要强调的是,该种情况下的反歧视不同于侵权责任关注的个人权益受侵害问题,其所要保护的个人往往具有群体性特征,关注的是群体利益和社会利益。故而对群体形态的隐私及隐私利益进行保护,应以减少歧视和差别对待为价值导向。比如,某打车软件用户允许平台读取自己的手机型号,以利于软件提供更具有系统兼容性的服务,但不允许软件对手机型号数据进行标签和分类,用于对不同手机型号用户的差别定价上。同时,平台应遵循数据公平处理原则、遵循技术向善的伦理规则,可通过明确平台的用户标签管理义务、算法解释义务来进行约束。

3.以平衡数据保护和共享为基本进路

群体形态的隐私、群体形态的数据关系可帮助平台企业准确定位市场需求和及时规避经营风险,因而能够产生巨大的正外部效应。故不能通过排斥数据利用、数据共享来实现对群体隐私的保护,应通过扩展个体隐私的保护框架、探索一种既能够保护群体形态隐私又不阻碍数据共享的路径,主要思路有两方面:一方面,由于即使认定了数据所有权归属于用户,但脱离特定的网络平台,用户其实无法有效占有和使用这些数据,且数据往往是在被汇集利用之后才会产生价值,因而用户无法从数据的所有权中获得利益。故平台可将从中获取的部分利益分享给允许让渡群体性权益的群体成员,作为对价从而实现数据价值的共享。另一方面,可激活公共数据信托制度,并联动个人信息保护公益诉讼制度,

为群体形态的隐私数据处理利用提供保障机制和救济渠道,进一步保障处理过程的公平性、防止超出处理目的以外的滥用。

三、出路:“隐私数据化”中权利义务体系及利益平衡机制的完善

大数据处理技术如用户画像,并不直接分析用户个人特征,而是分析部分群体与目标群体之间的邻近程度然后进行画像,进而推测其喜好以便精准营销等。故与其在现有法律中增加新的敏感数据类型或受保护群体,不如选择整体性和部门性的路径。即聚焦于“隐私数据化”的过程(用户标签形成及应用阶段),扩展数据主体应享有的数据权利、数据处理者应负有的数据义务,以及构建多方的利益平衡机制,以明确群体形态隐私在“个人隐私信息(或相关市场数据)—用户标签—数据分析——用户画像—个性化推送”等类似过程中的数据利用边界和保护救济机制(图2)。

图2 数据权利义务体系(用户标签形成及应用过程)

(一)

完善用户标签中主体的数据权利

1.细化数据处理知情权

当下个人信息保护体系以知情同意原则作为个人信息处理的前提,主要表现是在用户注册登录时平台单方提供的用户协议和隐私政策。由于对该类条款的授权同意往往是平台为用户提供服务的前提,用户实际上是“被动”的一方,加之大多数用户通常并不会阅读也难以理解冗长专业的数字服务条款,这就导致知情同意条款沦为了形式条款。

因此,用户标签下的知情权,更不能仅停留在知道“某种隐私会被收集”“某项数据会被处理分析”这种程度,而应是对在大数据分析下会被生成何种标签、该种标签会被如何利用等相关事项的知情。即需对个人知情同意的内容进行实质性丰富、对用户的数据处理知情权进行细化。相应地,平台也不应仅依靠“同意”来证明处理的合理性,应负有标签告知义务。平台需通过明示的方式去告知用户数据信息会被贴上的标签以及该标签的用途,某手机系统要求App标注隐私成分标签。此外,除了对用户标签的及时告知,也可赋予数据主体以直接访问权(GDPR第15条),使用户能够更好地了解关于自己的“推断”信息、了解自己是如何被平台和广告商“看到”,这要求平台对用户空间里的标签相关信息进行及时更新。

需要明确的是,用户对数据处理更进一步的知情权、平台对标签的告知义务的必要性在于,“算法黑箱”下平台和算法设计者往往也无法确定最后会生成什么样的标签,最终的算法审查也难以避免此种疏漏,因而即时的通知可以更好地补足算法自动性的缺陷。

2.设置数据限制处理权

从知情权和决定权角度,自然人具有限制或拒绝对个人信息进行处理的权利,当然也有权限制或拒绝不合理的用户标签行为。以国内数据领域首部基础性、综合性立法—《深圳市经济特区数据条例》为例,该条例对大数据“杀熟”、强制个性化广告推荐等有关数据问题均有明确法律条文规定,如“数据处理者应当提供撤回同意的途径,不得对撤回同意进行不合理限制或者附加不合理条件”,“自然人有权拒绝对其进行的用户画像或者基于用户画像推荐个性化产品或者服务,数据处理者应当以易获取的方式向其提供拒绝的有效途径”,诚然,该条例具有一定的进步性,但极有可能会成为“空壳”。一方面在于,现实中数据处理者(平台企业)并没有提供该种不附带条件的拒绝途径;另一方面是,条例中并没有严格将提供拒绝途径视为数据处理者的义务,且责任条款中也仅规定了对大数据“杀熟”的惩罚。因此,用户实际上仍然难以拒绝和对抗被标签化、被进行群体分类和被画像。

对此,应设置用户可拒绝该事项的明确性权利——数据限制处理权。在前述数据处理知情权、标签告知义务的基础上,用户有权要求更改不合理、不适当的用户标签,有权选择拒绝、退出或撤回对用户画像、个性化推送的同意。在这种权利的基础上,平台企业有提供该种拒绝、退出或撤回的途径的义务,如在“设置”栏目中增设用户可自主勾选是否同意用户画像、个性化推送的选项,并不附带任何条件或限制性影响。

面对大数据时代下深度挖掘、广泛利用数据所带来的风险,数据限制处理权能够弥补当下个人信息保护法中知情同意原则、删除权等制度的保护空隙,从而增强数据主体面对群体层面隐私侵害的抵抗力。

3.增加合理推断权

合理推断权具有事前和事后两个组成部分:事前组成部分,主要要求数据处理者解释相应数据作为某一“推断”基础的原因、“推断”是否与所示的处理目的和自动化决策的类型相关、作出“推断”的数据和方法是否准确可信,对这些解释的要求应引入具有法律约束力的原则、准则来进行制定;事后组成部分,主要表现在数据主体可以就“推断”或其源数据无关或不可靠为由向数据处理者提出异议。针对不准确的“推断”,数据主体可以提供补充信息来予以纠正;针对主观性的“推断”,可以说明相关信息和理由从而让数据处理者改变评估。

具体来说,合理推断权能防止个人不被根据“推断”的某种属性进行分组,并保证得出的“推断”是准确的,从而保护人们免受不合理的推断和基于不合理推断所作的决策,包括价格歧视和用户画像。该权利所能提供的新保护将比单纯的防止歧视、隐私侵犯和不透明的算法措施更进一步,不仅能够减少群体层面的隐私利益侵害,也能在群体形成并用于特征分析或决策时及时通知个人,以便实施有效救济。

(二)

强化数据分析中处理者的数据义务

1.明确用户标签管理义务

除了数据处理知情权对应的标签告知义务外,数据处理者(平台企业)也负有对用户标签的管理

义务,主要分为两个层面:一是积极义务,应完善记入用户模型的兴趣点规则和标签类型分类,并在数

据脱敏、标签可见度、授权性等层面来评估标签的安全性;二是消极义务,如禁止设置歧视性标签、禁止不合理地遗漏或删减标签以及禁止通过用户标签超越性目的挖掘用户关系。

基于此,可要求数据处理者定期进行“偏见”测试,避免基于残疾、年龄、性取向、性别、职业、收入等方面的用户标签带来的差别待遇;定期进行“目的中心”检测,以判断处理者是否超越所述用途和目的对用户标签进行滥用。“偏见”测试和“目的中心”检测可以由第三方数据治理机构提供并进行监督,平台企业需公开结果,“非歧视”“合目的”报告结果也能为平台企业树立正面形象,有助于实现用户和平台企业的共赢。

2.规范算法解释义务

个人信息保护法第24条第3款规定了算法解释权,即个人有权请求平台企业解释具体的算法规定,但该条款并未规定算法解释权的义务。《互联网信息服务算法推荐管理规定》第16条要求告知或公示算法推荐服务的“基本情况”或“主要运行机制”。以上两条涉及算法解释的条款,实质上是个人一方对平台企业算法解释的请求权,并且是一种事后的算法解释。这种权利不仅没有具体操作规则,现实中也往往由于双方的不平等地位从而失去规范目的。诚然,个人有权请求算法解释,但算法解释更应当侧重在义务层面由平台企业进行事前告知。算法下的个性化推荐机制与群体形态的隐私利益密切关联,平台企业应主动向公众和算法相关群体进行算法公开和算法解释,从而保证算法对相关群体的无歧视和合理对待。

具体而言,规范平台企业的算法解释义务应从三个角度切入。首先,在算法投入应用前,平台应引入第三方对算法进行合规评估;其次,在算法合规完成后,平台应向用户公开算法的计算原理、投入领域和应用目的;另外,在算法应用过程中,平台应设置途径使得用户有权拒绝和撤回被算法处理。相比于事后的算法解释私人赋权制度,事前的算法告知义务更能合理平衡个人信息主体与公共利益之间的复杂关系,能促进“有意义的透明度”之提升,为算法技术下的群体性权益风险提供有效规制。

3.遵循技术向善的伦理规则

在当前的法律保护措施并不完善的情况下,平台企业作为大数据技术的使用方,不要只把用户数据当作流量变现的渠道、以企业效率为绝对优先,而是要在企业获取利润和服务于人之间寻求一种平衡。平台企业需要注重关于用户隐私侵权的人文关怀、兼顾用户的隐私安全和发展性权利,积极打造向善的企业核心竞争力。其核心是要搭建并逐步完善数据伦理体系和人工智能伦理体系,形成符合我国数字经济发展情况的数据采集、传输、存储、分析、使用和人工智能技术应用的专业伦理标准,让技术更有温度。

(三)

构建数据利用中的利益平衡机制

在大数据时代,数据已成为与土地、劳动、资本、技术并列的生产要素时代,跳出单个用户的视角,整个用户群体其实都是数据的生产者。因为数据的“开采”是需要全体用户共同参与的工程,离开任何一个个体的数据,数据作为生产要素的质量都会下降。同时,用户也需要用数据换取效率和服务。在此意义下,用户和平台企业之间的隐私数据利益并不是完全对抗、此消彼长的,盲目遵循“保护第一”也有悖于这一时代的共享性。故应鼓励构建数据利用中的利益平衡机制,以实现数据保护和数据共享的平衡。

1.增设数据利益共享渠道

平台企业在对具体数据处理方式、用途、目的进行公开时,可增设数据利益共享渠道。此处的数据利益共享,并不是指不同平台企业互相分享数据及数据分析结果,而是指用户、用户群体和平台企业之间的数据利益共享。

用户自主同意接受标签化、用户画像和个性化推送,可以领取平台企业提供的会员服务、额外福利等。例如某位用户提供了自己的职业信息,与其他相同职业的用户经过标签化形成了群体,平台通过用户画像分析出了该类职业群体的喜好、偏好以提供更精准的服务,对此平台可作出一个可视化报告推送给该群体,并把数据处理分析而产生的利益(如广告收入),通过福利提供和服务升级等渠道分享给该群体。甚至,可以允许用户拿自己的数据到平台上交易,以换取更多的服务和利益。当然,这基于用户的知情权和自主选择权,平台企业也负有相应的告知义务和对用户数据权益的保护义务。同时,不管用户选择与否,都不会影响用户本应享受到的基础服务。

利益共享制度、交易制度的完善是共享和交易顺利开展的前提,法律应当鼓励平台企业构建数据所得收益穿透分发给用户及用户群体的机制。如此,通过利益共享渠道,平台能更加合法合规地进行数据利用、释放数据潜能,还能有效减少第三方利用爬虫等技术不当获取数据的情况;用户及用户群体也不再只是让渡大数据分析下的隐私、隐私数据化利益,而是真正能够基于相应数据所有者的身份,与平台企业实现数据价值的共享。

2.激活公共数据信托制度

在大数据利用领域,各平台企业之间主要通过Open API模式分享数据。这其中既涉及用户的权益,也涉及各平台企业间的竞争利益,如实践中,法院提出了“三重授权”原则,即平台方直接采集、使用用户数据需获得用户授权,第三方通过Open API间接获得用户数据需获得用户授权和平台方授权,如此,通过“三重授权”来保障用户群体信息权益、保障数据利用行为的合法性和正当性。

然而,“三重授权”仅停留在司法判例和行业规则中,落地贯彻率低,且对用户权益的保障仍无法摆脱知情同意规则的窠臼和局限,对数据不当利用行为的规制也多在事后发挥作用。对此先需要明确,此问题的核心在于协调数据利用中用户与多平台的利益关系。而公共数据信托制度恰能处理这一复杂关系,该制度的优势在于:一方面,遵循委托人意愿和受托人独立管理的制度逻辑,受托人遵循委托人的意愿、以受益人获得最大利益为目的来管理信托财产,既可以解决数据资产的授权使用问题,还可以使数据资产增值的利益按照委托人的意愿进行分配;另一方面,信托财产的使用、管理、处分等权能、权益能够分别赋予不同的信托当事人;同时,信托财产的独立性原则能够保障信托财产独立于信托当事人的其他财产。故把数据作为信托财产,既可以保证数据财产独立性,又可以将数据权能、权益分配给多个主体,从而平衡数据主体、数据处理者、数据控制者、数据利用者之间的利益结构。

出于信托财产价值考虑,在数据信托制度中的“数据”往往不是个体的数据,而是海量性、聚合性、群体性的数据。数据信托便可由“数据处理者”中心转为“数据所有者”中心,由用户及用户群体作为受益人。如此,激活公共数据信托制度对数据资产的作用,既可实现对群体形态隐私利益的保护,又能释放数据共享的巨大潜力。

3.联动个人信息保护公益诉讼

个人信息保护法规定,提起个人信息保护公益诉讼,需同时满足违法处理个人信息和侵害众多个人的信息权益的条件,且诉权主体为人民检察院、法律规定的消费者组织和由国家网信部门确定的组织,同时不影响个人通过私益诉讼维护自身利益。可见,对群体形态隐私的保护,能够被个人信息保护公益诉讼的制度内涵所包容;对群体共同利益的维护以及实现群体的反歧视、多方利益平衡,与个人信息保护公益诉讼的社会本位特征、公共利益属性不谋而合。且现有个人信息保护公益诉讼案例中已有涉及保护群体形态隐私的判决,如2023年最高检发布的个人信息保护检察公益诉讼的典型案例(表1):

表1 个人信息保护公益诉讼典型案例(基本案情)

上表四个典型案例中,对平台企业的诉因主要集中于数据采集前的告知义务和数据利用后的处理义务。具体而言,事前告知应当及时、全面、准确,以用户同意为采集前提,不得强制;事后处理方面,平台企业要定期进行删除、不得不当利用,用户则有权请求告知具体应用内容和方式、请求删除等。这恰与群体形态隐私保护中用户的数据处理知情权和数据限制处理权对应。可见,当下的个人信息保护公益诉讼对群体形态隐私利益的保护具备适用张力。换言之,可扩宽对于平台企业的诉因,如起诉平台企业不当使用用户画像、用户标签不合理、未设置拒绝个性化推荐的选项、对群体差别对待等行为。

同时,诉讼主体方面,除了一般个人信息保护公益诉讼中的三类主体外,还可以激活公共数据信托制度中的数据财产委托人、受托人作为诉权主体;举证责任方面,遵循举证责任倒置规则,如被告需证明用户标签和差别待遇之间没有因果关系,或即使发生差别对待也具备合理性、是以必要和相称的方式追求合法目标,如果这两个条件都不能成立,那么无论被告的主观目的为何,都需承担歧视的责任;赔偿认定方面,主要根据标签涉众面、标签设计合理性以及对用户的限制性程度等标准,综合认定赔偿数额。由此,通过上述方式联动个人信息保护公益诉讼,推动对群体形态隐私保护的事后救济,从而进一步平衡用户群体和平台企业在数据分析和应用过程中的地位和利益。

结语

随着大数据技术的高速发展,个人本位的隐私保护法律框架难以满足时代需求。当下的制度设计和技术手段虽能为个人隐私提供较为完备的保护,但在数据资源价值日益多元、隐私利益相互依存、并产生群体样态的大数据时代,隐私保护、数据治理若还停留在个体层面是不现实的。大数据时代下,应通过扩展整体性、部门性的保护路径、完善“隐私数据化”过程中的权利义务体系和利益平衡机制,从而推动隐私保护、数据治理从个体维度、个人本位向群体维度、社会本位进行转变,方为法律对大数据时代下隐私的群体形态之应有回应。

原标题:《陈佳欣|大数据时代下隐私的群体形态及法律回应》

阅读原文



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3