查看原文
其他

【学术动态】2021年9月互联网法治域内外学术动态

编者按:本文着眼于互联网领域(尤其是数据与个人信息保护领域)域内外相关学术动态。重点整理域内法学CSSCI(目前为24本,另加《中国社会科学》)以及域外法学类SSCI期刊一区发表的相关文章。学术动态按照先域内后域外的顺序排布。由于范围选择有限,难免有所疏漏,敬请读者海涵。

目  次

一、域内学术动态

1.赵莹:《数字货币激励性法律规制的逻辑与路径》,载《法商研究》2021年第5期,第130-143页。

2.刘权:《论个人信息处理的合法、正当、必要原则》,载《法学家》2021年第5期,第1-15页。

3.蔡培如:《欧盟法上的个人数据受保护权研究——兼议对我国个人信息权利构建的启示》,载《法学家》2021年第5期,第16-30页。

4.程啸:《论死者个人信息的保护》,载《法学评论》2021年第5期,第13-23页。

5.陆青:《数字时代的身份构建及其法律保障:以个人信息保护为中心的思考》,载《法学研究》2021年第5期,第3-23页。

6.付新华:《个人信息权的权利证成》,载《法制与社会发展》2021年第5期,第123-140页。

7.胡凌:《功能视角下个人信息的公共性及其实现》,载《法制与社会发展》2021年第5期,第176-189页。

8.程啸:《论我国个人信息保护法的基本原则》,载《国家检察官学院学报》2021年第5期。

9.谢鸿飞:《个人信息泄露侵权责任构成中的“损害”——兼论风险社会中损害的观念化》,载《国家检察官学院学报》2021年第5期。

10.杨立新:《个人信息处理者侵害个人信息权益的民事责任》,载《国家检察官学院学报》2021年第5期。

11.张新宝 赖成宇:《个人信息保护公益诉讼制度的理解与适用》,载《国家检察官学院学报》2021年第5期。

12.唐晓晴 吴奇琦:《澳门地区民法上个人信息保护权的体系定位》,载《国家检察官学院学报》2021年第5期。

13.陈林林 严书元:《论个人信息保护立法中的平等原则》,载《华东政法大学学报》2021年第5期,第6-16页。

14.周尚君:《数字社会对权力机制的重新构造》,载《华东政法大学学报》2021年第5期,第17-26页。

15.张欣:《免受自动化决策约束权的制度逻辑与本土构建》,载《华东政法大学学报》2021年第5期,第27-40页。

16.王凌皞:《“被遗忘”的权利及其要旨——对“被遗忘权”规范性基础的批判性考察》,载《华东政法大学学报》2021年第5期,第40-54页。

17.潘芳芳:《算法歧视的民事责任形态》,载《华东政法大学学报》2021年第5期,第55-68页。

18.王春梅 冯源:《技术性人格:人工智能主体资格的私法构设》,载《华东政法大学学报》2021年第5期,第69-80页。

19.宋烁:《政府数据开放是升级版的政府信息公开吗?——基于制度框架的比较》,载《环球法律评论》2021年第5期,第52-66页。

20.刘练军:《人工智能法律主体论的法理反思》,载《现代法学》2021年第4期,第73-88页。

21.吕炳斌:《论个人信息处理者的算法说明义务》,载《现代法学》2021年第4期,第89-101页。

22.杨利华:《人工智能生成物著作权问题探究》,载《现代法学》2021年第4期,第102-114页。

23.曹博:《算法歧视的类型界分与规制范式重构》,载《现代法学》2021年第4期,第115-126页。

24.殷继国:《互联网平台封禁行为的反垄断法规制》,载《现代法学》2021年第4期,第143-155页。

25.杨文明:《网络平台独家交易的违法性分析》,载《现代法学》2021年第4期,第156-167页。

26.左卫民:《AI法官的时代会到来吗——基于中外司法人工智能的对比与展望》,载《政法论坛》2021年第5期,第3-13页。

27.马光:《FTA数据跨境流动规制的三种例外选择适用》,载《政法论坛》2021年第5期,第14-24页。

28.蔡星月:《算法决策权的异化及其矫正》,载《政法论坛》2021年第5期,第25-37页。

29.张新宝:《论个人信息权益的构造》,载《中外法学》2021年第5期,第1144-1166页。

30.周汉华:《平行还是交叉——个人信息保护与隐私权的关系》,载《中外法学》2021年第5期,第1167-1187页。

31.梅夏英:《企业数据权益原论:从财产到控制》,载《中外法学》2021年第5期,第1188-1207页。


二、域外学术动态

1.Lena Ulbricht  Karen Yeung, Algorithmic regulation: A maturing concept for investigating regulation of and through algorithms, Regulation & Governance.

2.Karl Stögera; David Schneebergerb; Peter Kiesebergc; Andreas Holzinger, Legal aspects of data cleansing in medical AI, Computer Law & Security Review.

3.Paweł Nowik, Electronic personhood for artificial intelligence in the workplace, Computer Law & Security Review.

4.Jennifer Cobbe; Jatinder Singh, Artificial intelligence as a service: Legal responsibilities, liabilities, and policy challenges, Computer Law & Security Review.

5.Andreas Häuselmann, Fit for purpose? Affective Computing meets EU data protection law, International Data Privacy Law.

一、域内学术动态

01


赵莹:《数字货币激励性法律规制的逻辑与路径》,载《法商研究》2021年第5期,第130-143页。


当下,数字货币已在世界范围内广泛应用,世界各国正逐步认识到数字货币在经济发展中的作用并对其进行有效的法律监管。我国出于保障金融安全的目的,对数字货币采取的是“一刀切”式的禁易规则立法,这将会导致数字货币在民间的灰色发展,抑制金融创新。厘清数字货币的概念并进行类型化分析是法律有效监管的前提。采用激励性法律规制实现数字货币的法定化,法律规制须由禁易规则的“父爱主义”转向管制规则的“国家主义”,同时识别数字货币不同类型的法律性质,“刺破数字货币面纱”进行穿透式监管,确立国家金融监管部门、监管科技公司与行业协会“协调共治”的监管主体,辅以数字货币交易平台准入、信息披露和税收监管等法律制度安排。


02

刘权:《论个人信息处理的合法、正当、必要原则》,载《法学家》2021年第5期,第1-15页。


“合法、正当、必要原则”已成为个人信息处理的基本原则。个人信息保护的告知同意机制日益流于形式,而且存在适用例外,在个人信息权利化存在困境的现实情境下,“合法、正当、必要原则”可以实现个人信息保护与合理利用的平衡。“合法原则”属于形式合法性范畴。“正当原则”要求个人信息处理必须出于特定、明确、合理的目的。为了实现个人信息社会价值的最大化,应允许个人信息处理者在符合个人合理预期的条件下,适当变更原初目的。“必要原则”包括禁止过度损害和禁止保障不足两大方面。它既要求处理个人信息时应在有助于目的实现的必要范围内运用最小损害的手段,又要求采取必要措施最大程度保障个人信息安全。“正当、必要原则”有利于弥补数字时代意思自治与契约自由的缺陷,可以矫正个人信息处理者同个人之间日益严重失衡的不平等态势,实际上是比例原则在私法中的体现。


03

蔡培如:《欧盟法上的个人数据受保护权研究——兼议对我国个人信息权利构建的启示》,载《法学家》2021年第5期,第16-30页。


《欧盟基本权利宪章》第8条确立的个人数据受保护权是欧盟个人数据保护制度的基础性权利,但该权利与第7条“大隐私权”间的关系并不清晰。欧盟法院2010年至2020年间的判决表明,针对个人数据处理行为,首先需通过隐私权判断个人数据之于个体人格的价值,由此划定私人领域和国家权力、第三人行为自由之间的界限,为个人提供实体保护。在此基础上,以个人数据受保护权规范非对称权力结构下的数据处理行为,使之透明、准确、公正、应责,为个人提供程序保护。隐私权要求国家承担避免侵犯私人领域的消极义务;个人信息受保护权则主要依靠国家履行保护义务,积极确立统一的行为规范、监管体制和监督救济机制。在构建我国个人信息权利时,可适当借鉴欧盟思路,确立作为基本权利的个人信息受保护权、作为民事权益的个人信息权益这一组实体权利,并将《个人信息保护法》中的个人权利解释为程序性权利。


04

程啸:《论死者个人信息的保护》,载《法学评论》2021年第5期,第13-23页。


对于死者的个人信息,法律上的保护路径有三种:一是继承法保护,即允许继承人通过继承取得死者的个人信息。在我国法上,自然人就其个人信息享有的是人格权益,故此该权益不得继承。至于继承网络服务合同债权的方法,也无法解决全部问题。二是侵权法保护,《民法典》第994条虽然只列举了死者的姓名、肖像和隐私,但是,个人信息可以解释到该条中的“等”当中,然而,这种保护属于事后的救济。三是个人信息保护法的保护,即规定死者的近亲属可以针对死者的个人信息行使某些权利。该方法已为我国新颁布的《个人信息保护法》所采纳,这是一种积极、主动的保护。为了尊重死者生前意愿、保护死者及第三人的隐私,《个人信息保护法》第49条对死者近亲属针对死者个人信息的权利进行了相应的限制。


05

陆青:《数字时代的身份构建及其法律保障:以个人信息保护为中心的思考》,载《法学研究》2021年第5期,第3-23页。


个人信息保护的对象并不是个人信息本身,而是个人在各种社会关系中身份建构的自主性和完整性。通过历史梳理可以发现,人格权的发展过程,其实也是个人身份权益不断得到法律彰显的过程。而个人信息保护的规范特质,其实在于将对“作为结果的个人身份保护”转向了“作为生成过程的个人身份保护”。个人身份权益尤其是动态身份权益(也即个人的社会镜像)的保护,并不能为姓名、肖像、名誉、隐私等具体人格权保护所涵盖。在身份建构的视域下,个人信息的一系列制度安排有重新梳理和解释的必要。人类进入到数字时代后,面对个体自我的数字化呈现可能带来的身份危机,以数字身份为中心重新建构人际关系调整秩序,或许是未来法治发展的方向。


06

付新华:《个人信息权的权利证成》,载《法制与社会发展》2021年第5期,第123-140页。


个人信息权在我国仍然只是一项新兴权利,而非法定权利。这在一定程度上可归结于近年来在国内学界占据强势地位的个人信息利益保护论,其核心观点是个人信息权会阻碍个人信息公共利益的实现。个人信息在流通利用中产生价值,个人信息权亦在流通利用中被赋予数据主体。个人信息权与公共利益并非对立关系。个人信息权是自然人在数据处理过程中对个人信息有限的自主决定和控制权,而非排他占有和圆满控制。人的尊严与自主性作为内在理由,可以独立证成个人信息权。当代中国语境下的“共同善”作为个人信息权的外在理由,可以为个人信息 权的证成提供辩护力量。个人信息权是一个开放的概念,它可以有效弥补单一行为规制模式的缺陷,并构成对效用最大化的边际约束。对个人信息权的保护应当成为整个法秩序的共同使命,形成公法和私法的双重保护进路。


07

胡凌:《功能视角下个人信息的公共性及其实现》,载《法制与社会发展》2021年第5期,第176-189页。


随着现有个人信息保护制度的完善,相关研究需要转换思路,在三个维度加强制度性分析。首先,深化讨论个人信息的公共性面向,需要以某种制度安排更为有效地实现公共利益功能,而非实现单纯的私人利益秩序。其次,这些功能不仅反映在个人信息的处理过程中,也反映在个人信息的生产和创制过程中,由此有必要将个人信息生产同更大的社会政治经济变化背景结合起来进行理解。第三,在方法论上超越场景化路径,采用功能视角进行分析。我们要看到个人信息的使用需要满足和解决数字市场和数字社会形成发展过程中的核心问题,确保数字要素有序流动,市场秩序安全稳定。个人信息的公共性体现为数字市场和社会中的认证、连接和声誉功能。这一视角不仅涵盖狭义上承担公共职能的机构生产的政务数据的开放问题,也从整个互联网有效生产和运行的角度追问,当信息技术塑造了新型数字市场和社会时,使其有效运转的公共信息机制是什么。


08

程啸:《论我国个人信息保护法的基本原则》,载《国家检察官学院学报》2021年第5期。


个人信息保护法的基本原则是个人信息处理活动应当遵循的基本原则,也是解释、补充以及发展个人信息保护法律制度的基本原则。故此,个人信息保护法的基本原则具有重要的功能和意义。我国新颁布的《个人信息保护法》在第一章“总则”中以六个条文(第5-10条)对个人信息保护法的基本原则作出了规定。我国个人信息保护法的基本原则包括:合法、正当、必要、诚信、目的限制、公开透明、质量、安全等八项原则。


09

谢鸿飞:《个人信息泄露侵权责任构成中的“损害”——兼论风险社会中损害的观念化》,载《国家检察官学院学报》2021年第5期。


个人信息上承载了不同主体的各种法益,自然人的个人信息权益宜界定为利益,以限缩其对个人信息的支配和排他权能,调适法益冲突。个人信息侵权也应界定为违反保护性法规的侵权类型,以引入个人信息保护专门立法对个人信息保护目的和保护范围的限制,实现诸法域体系的融贯性。私密信息泄露适用隐私权侵权规则,若发生下游损害的,泄露者按照一般侵权规则承担责任;敏感信息泄露时,未发生下游损害的,受害人也可请求赔偿因焦虑产生的精神损害和风险损害,即为预防损害支付的费用。在个人信息、环境生态等领域,有条件承认预期侵权制度,肯定未来被侵权的风险构成法律上的损害,并基于精算规则予以赔偿,能使侵权责任法动态适应现代风险社会和复杂社会的需求。


10

杨立新:《个人信息处理者侵害个人信息权益的民事责任》,载《国家检察官学院学报》2021年第5期。


《个人信息保护法》调动各种法律责任方法,加强对个人信息权益的保护,其中民事责任在制裁个人信息处理者侵害个人信息权益行为,保护个人信息权益,具有重要的地位和价值。该法直接规定个人信息处理者侵害个人信息权益民事责任的条文是第69条,不过,其他大部分条文都与认定侵害个人信息权益民事责任有关。保护个人信息权益适用侵权请求权和人格权请求权的方法,应当依照《民法典》关于人格权保护和侵权责任构成的基本规则,准确适用法律规定的归责原则,掌握好民事责任构成要件,运用损害赔偿以及停止侵害、排除妨碍、消除危险、消除影响、恢复名誉、赔礼道歉的责任方式,全面保护好自然人的个人信息权益。


11

张新宝 赖成宇:《个人信息保护公益诉讼制度的理解与适用》,载《国家检察官学院学报》2021年第5期。


《个人信息保护法》增设了个人信息保护公益诉讼制度。提起个人信息保护公益诉讼,需要同时满足违法处理个人信息与侵害众多个人的信息权益的条件。人民检察院、法律规定的消费者组织和由国家网信部门确定的组织有权提起个人信息保护公益诉讼。个人信息保护公益诉讼的法律责任包括赔偿相关主体提起公益诉讼支出的必要费用,也包括强制履行法律规定满足受害人相关权利的其他义务。个人信息保护公益诉讼不影响受害人提起私益诉讼维护其自身利益,个人信息保护公益诉讼的启动无需个人信息私益诉讼前置。侵权人承担个人信息保护公益诉讼的法律责任不影响其承担相应的刑事与行政法律责任。


12

唐晓晴 吴奇琦:《澳门地区民法上个人信息保护权的体系定位》,载《国家检察官学院学报》2021年第5期。


澳门地区民法上个人资料(个人信息)保护权的体系定位,乃是这项权利相关理论的起始点,意义重大,应予厘清。这个问题牵涉三个维度,亦即这项权利的概念本身、其上位概念,以及其下位概念。具体言之,三者分别涉及以下三方面问题:首先,个人资料保护权何以被定性为资讯自决权(资讯自主权);其二,它如何逐步被学说纳入其上位的隐私权体系、这种传统见解面临何种隐忧、其可能的解决方案为何;其三,根据澳门地区个人资料保护的立法现状,个人资料保护法所确立的其各项子权利,如何被梳理成体系。


13

陈林林 严书元:《论个人信息保护立法中的平等原则》,载《华东政法大学学报》2021年第5期,第6-16页。


个人信息保护立法应基于个人和信息处理者之间的资源及能力不平等状况,针对自动化决策的平等盲区,设置一系列体现实质平等化的权利义务分配方案,即强化对个人信息主体的赋权并严格化信息处理者的义务,最终在二者之间促成一种制度性均势。《个人信息保护法》遵循了公平信息实践的基本框架,构建了以权益保护为核心的个人信息保护框架和算法纠偏机制,但仍存在若干不足之处。尽管制度设计和算法规制水平很重要,但平等原则在个人信息保护领域的生根落地和实现算法公正,从根本上取决于运行法律制度和自动化决策的社会本身平等与否。


14

周尚君:《数字社会对权力机制的重新构造》,载《华东政法大学学报》2021年第5期,第17-26页。


数字社会重新界定了人们的物理空间并不断开疆拓土,对传统国家权力运行的边界构成明显挑战。权力的专属性被稀释和“去中心化”,这种“去中心化”不是跨国家权力关系,而是超国家权力关系。它不是在国家权力之外新增一个权力种类,增加一个“数字权力”,而是在现有权力形态基础上,超越权力运行基本逻辑而建立起新的权力生产机制和生产关系。权力生产重回社会车间,并形成微粒化的单体关系网络;数字化塑造权力机制,使权力的存在形态发生了从强制权到解析权、从层级权力到空间权力、从公开的权力到隐蔽的权力的深刻变化。但这种变化并未改变主权国家“决定例外状态的权力”的核心逻辑以及权力的本质属性,改造的是权力的发生机制及其作用于人的方式。


15

张欣:《免受自动化决策约束权的制度逻辑与本土构建》,载《华东政法大学学报》2021年第5期,第27-40页。


为应对算法技术形成的数字化生存困境,免受自动化决策约束权应运而生。该项权利赋予数据主体自治性尊重,是技术正当程序的应有之义,有助于数据主体与数据控制者之间创建信任性互动。欧盟《通用数据保护条例》第22条选取了严格禁令与积极权利路径的中间路线,设定了横跨公私场景下自动化决策实施的正当性基础,构建了多层次立体化联动保护机制。但该条制度设计存在限制过多、指引不明、规则科学性不足以及实效堪忧的缺憾。我国《个人信息保护法》应在借鉴的基础上积极创新,扩展行权适用的决策类型,厘清对个人产生影响的判断标准,并面向数据生命周期构建事前知晓、事中参与、事后救济的全周期闭环行权体系,增强算法私权体系的韧性和质效。


16

王凌皞:《“被遗忘”的权利及其要旨——对“被遗忘权”规范性基础的批判性考察》,载《华东政法大学学报》2021年第5期,第41-54页。


数字时代中的信息储存、获取和处理方式发生了翻天覆地的变革。为了在新的技术条件下保障公民对其个人信息的掌控,多个国家和地区引入“被遗忘权”。被遗忘权固然是实在法意义上的一项“制度性权利”,但从权利规范性基础的角度看,被遗忘权在辩护的层面上是否具有独立性仍存有疑问。一方面,现有被遗忘权的典型案例都能在隐私权的框架下得到充分解说;另一方面,被遗忘权的提倡者未能给出独立且融贯的权利要旨。从权利要旨上看,被遗忘权或许并非独立的“新兴权利”,而只是隐私权、名誉权和收回权等其他权利组成的松散权利簇。从实在权利制度安排来看,由于我国隐私权保护范围的有限性,被遗忘权可以且应当构成一种法律权利层面的“新兴权利”。


17

潘芳芳:《算法歧视的民事责任形态》,载《华东政法大学学报》2021年第5期,第55-68页。


算法决策在社会交往中的应用日趋普遍化,产生了算法歧视这一一般性问题。根据算 法歧视发生的不同场域,可以将算法歧视区分为无缔约情形下的算法歧视和缔约过程中及合同履行 过程中的算法歧视。在无缔约情形下,算法歧视本质上是对民事主体信用权、平等就业权等人格权的侵害。利用算法决策的行为人如使用敏感数据,则应当推定其存在侵权故意。在其他情形下,由于行为人负有对算法程序的影响评估和合规审计义务以及一定的算法解释和说明义务,违反义务本身即可认定其有过错。在缔约磋商和合同履行过程中,上述保护义务可归入前合同义务及附随义务的范畴,且行为人还负有信息安全保护和正当程序保障义务。上述责任形态发生竞合时,应赋予受算法决策影响的一方选择权。


18

王春梅 冯源:《技术性人格:人工智能主体资格的私法构设》,载《华东政法大学学报》2021年第5期,第69-80页。


就方法论而言,人工智能体的主体资格完全可以在与自然人法律人格相切割,并在与物 格相区隔的基础上得以证成,也即反向验证,人工智能作为技术造物,可以从自然人人格中分解出技术性人格,借助于法律拟制技术获得相应的法律位格;正向验证,人工智能的自主性和社会性使其难以被融入物格层次结构,从而应当纳入主体范畴。在具体制度构设时,可以在规范称谓上以“技术人”称之,以保持与自然人、法人的名称同构,并对其主体资格的取得和终止设置登记要求;在财产—责任机制上,不设主体资格准入之财产强制,但对其所有人或管理人配置以补充连带责任,求得交易安全与产业发展之平衡;在权利能力范围上,严格限定为财产法领域,以维护自然人在亲属法和身份法领域之伦理性、目的性,并由此揭示出人工智能体人格之有限性。


19

宋烁:《政府数据开放是升级版的政府信息公开吗?——基于制度框架的比较》,载《环球法律评论》2021年第5期,第52-66页。


政府数据开放是数字时代政府治理改革的制度工具,已形成与政府信息公开具有本质区别的制度框架。在开放原则上,遵循需求导向原则,同时关注政府治理目标需求和数据用户创新应用偏好。在开放范围上,采用目录管理的动态调整方式划定范围,侧重开放具有高价值的经济社会领域数据,并将成本收益纳入考量。在开放方式上,为最大程度增强数据利用的整体社会效益,根据政府数据资源分级分类分为完全开放和有条件开放两类。在安全保障上,政府数据开放对不同保护等级的数据在不同阶段采取安全审查、风险评估、有限开放、监测预警、应急处置等措施。在数据利用上,政府数据开放具有双向利用特点,政府和公众均为数据利用者。政府数据开放使用开放性许可使用协议规范数据利用行为,协议内容应对使用者作出最低限度的使用限制。此外,政府数据开放注重发挥第三方作用,形成鼓励第三方开放非政府数据资源、提供数据分析工具、开展政府数据开放实效评估等特色制度。


20

刘练军:《人工智能法律主体论的法理反思》,载《现代法学》2021年第4期,第73-88页。


法律主体乃是人从自然人变为社会人的必然产物,是人与人之间及人与社会之间的关系,需要且必须由法律来调整的结果。法律主体是一种人格人,其特征有三:(1) 具有意志;(2)属于目的性存在;(3)能够自律。人格人既是法律的创造者,又是法律的适用者。因而,法律主体可以定义为承载法的人格人。法人同样具有自己的独立意志,乃是 一种目的性和自律性的存在物,属于法律主体。人工智能与法人不可相提并论。人工智能不具备心理认知意义上的意志,它自身并非是一种目的性存在物,且不具有自律性,人 工智能无法承载法。从后果主义上看,人工智能法律主体化势必会给人类带来不堪承受之重。


21

吕炳斌:《论个人信息处理者的算法说明义务》,载《现代法学》2021年第4期,第89-101页。


告知同意系个人信息保护的基本要求和核心规范。告知中的“明示”要求和充分性要求均蕴含着说明义务。在应用算法的自动化决策场合,个人信息处理者也应承担相应的“算法说明义务”。算法说明义务在理论上具有正当性,不仅共享着个人信息处理者的说明义务的正当理论,还具有若干额外的补强理由,但同时也面临一些抵触性的理由;这些理由相互作用,决定了算法说明义务的限度。算法说明义务的目的在于保障个人知情,该义务指向关于算法技术及其应用方面的有用信息,但无需涵盖算法的技术细节和复杂的数学解释。为弥补算法说明义务的不足,可辅之以算法问责制,对算法进行协同治理。


22

杨利华:《人工智能生成物著作权问题探究》,载《现代法学》2021年第4期,第102-114页。


人工智能的出现,改变了以人类为主导的传统作品创作方式,引发了诸多著作权问题。人工智能生成物可以构成著作权法意义上的作品。在著作权归属问题上,人工智能本身无法成为权利主体,符合作品特征的人工智能生成物的著作权原则上应当归属于人工智能的使用者,但同时也要兼顾对投资者利益的保护。为实现个人利益与公共 利益的平衡,还应当对人工智能生成作品的著作权进行一定限制。


23

曹博:《算法歧视的类型界分与规制范式重构》,载《现代法学》2021年第4期,第115-126页。


对算法歧视进行一体化规制的预设失之抽象,个别化规制的探讨则受限于部门法思维,过于宏观与过于微观的视角都存在各自盲点,基于类型界分的规制范式重构尝试探索一条折中路径。承认算法歧视在根源上与传统歧视具有同质性是进行分类的前提,复现型算法歧视、加剧型算法歧视及新增型算法歧视是在比对算法决策与传统决策的基础上实现的类型化整合,以此为基础分析规制歧视的传统范式也显得有的放矢。面对不同类型算法歧视存在的技术难题与法理障碍,进一步细化具体类型中的特殊情形,提炼规制重点,将深化对算法歧视的认知,实现以制衡算法权力为核心的规制范式重构。


24

殷继国:《互联网平台封禁行为的反垄断法规制》,载《现代法学》2021年第4期,第143-155页。


近年来,互联网平台实施的封禁行为引发了社会各界的广泛关注。由于互联网平台是兼具公共空间属性和私人空间属性的准公共平台,需要防范平台利用公共空间属性排除、限制市场竞争。反垄断法对封禁行为的规制,有助于实现互联互通及其派生的效率和用户至上的价值目标。在相关市场界定方面,鉴于封禁方与被封禁方的上下游关系以及平台之间的跨平台网络效应,需要界定多个相关市场,但不宜根据平台整体界定相关商品市场。在市场支配地位认定方面,重点考虑封禁方获取和控制用户数据的能力、被封禁方对封禁方在交易上的依赖程度和在相关市场生存的难易程度。在违法性认定方面,宜适度扩张必需设施理论,在公共利益框架内审查经营自主权、保障用户合法权益等抗辩理由并确定封禁的合理限度。


25

杨文明:《网络平台独家交易的违法性分析》,载《现代法学》2021年第4期,第156-167页。


网络平台“二选一”行为引发了系列讼争,焦点在于独家交易违法性判断。按照逻辑,平台独家交易违法性分析应以契合网络经济规律的法律标准为指引,以竞争损害为证成条件,以正当理由为阻却要件。违法性得证与否最终落脚于竞争损害与正当理由的平衡分析。相比产出和价格,市场的可参与性、可竞争性以及平台的可选择性对消费者更为重要。依此标准观之,独家交易提高了平台竞争对手的成本,导致市场封锁并损害用户自由选择权利。当然,独家交易也能够激发网络效应、生成自然垄断,且有助于防止竞争对手“搭便车”。如竞争损害和正当理由兼而有之,仍需以较小限制替代测试确定违法与否。


26

左卫民:《AI法官的时代会到来吗——基于中外司法人工智能的对比与展望》,载《政法论坛》2021年第5期,第3-13页。


随着人类社会开始迈入人工智能时代,人工智能在司法实践中的运用逐步显现。在域外,COMPAS等AI裁判在一些边缘性司法决策活动中崭露头角。在我国,人工智能在审判决策环节的运用虽然尚未得见,但辅助性使用已现端倪。从整体而言,无论是域外还是国内,由于社会认同、技术发展与司法伦理等多重障碍,AI法官的运用在中短期内都较难全面、深刻地推行。从长远来看,AI法官的运用前景如何仍然具有不确定性,取决于诸多因素,包括社会对人工智能的合理预期与认同、从数据和算法层面切实推动司法人工智能技术发展、适配的司法伦理规则构建等。


27

马光:《FTA数据跨境流动规制的三种例外选择适用》,载《政法论坛》2021年第5期,第14-24页。


如同世界贸易组织协定,大多数自由贸易协定都设有安全例外条款,这些条款与一般例外条款及电子商务或数字贸易章节中的数据跨境流动限制条款一道形成了对数据跨境流动的限制依据。特别是国家安全例外规定,对数据的跨境流动有可能形成较大限制。国家安全例外中的“信息”,若包括个人信息,则有可能对数据跨境流动产生较大影响。此外,在电子商务或数字贸易章节中本身就有例外条款的前提下,再有一般例外和安全例外的选择适用,就会对数据跨境流动产生更大限制效果。


28

蔡星月:《算法决策权的异化及其矫正》,载《政法论坛》2021年第5期,第25-37页。


算法决策权的异化使得决策的初衷为技术权力所干扰,决策权强力扩张、权力制衡机制失灵、个人自由与权利受到侵蚀。对此,应将算法决策权与个人权利的新型动态平衡作为矫正权力异化的规制目标,一方面尽快采取即时矫正措施:从决策权让渡规则、决策能力相当性评测和正当程序原则三个层面搭建束状权力结构,分别对决策的范围、主体和程序做出限制;另一方面扩充权利版图以对异化进行长效矫正:在数据相关权利和算法解释权之外,为系统控制者和决策相对人配置用以制衡算法决策权的免受自动化决策权、有意义的人工控制权和事后的人工审核权,进而从根本上扭转算法决策权异化局面,重建新型平衡机制,促进算法走向正义。


29

张新宝:《论个人信息权益的构造》,载《中外法学》2021年第5期,第1144-1166页。


个人信息权益的权益构造,包括内部构造和对外部其他主体相关权益的支配关系两个部分,由个人信息保护法治的价值取向所决定。个人信息权益的内部构造由“本权权益”与保护“本权权益”的权利构成。个人信息权益之“本权权益”主要包括人格尊严、人身财产安全以及通信自由和通信秘密等利益,但不包括财产利益;保护“本权权益”的权利主要包括同意(或拒绝)的权利以及知情、查阅、复制、转移、更正、补充、删除、请求解释说明等权利。个人信息权益对处理者和国家机关获得的个人信息数据同时具有外部约束力。处理者对合法处理所得的个人信息数据享有财产利益,但该数据受到个人一定程度的支配,除非其已经过匿名化处理。国家机关获得的个人信息数据同样受制于个人信息权益,但是国家机关对个人信息数据不享有财产利益,并且应当依法依规向社会积极开放其控制的数据资源,释放政府数据红利。


30

周汉华:《平行还是交叉——个人信息保护与隐私权的关系》,载《中外法学》2021年第5期,第1167-1187页。


《民法总则》制定之前,我国法律对于个人信息保护与隐私权关系的处理有两个基本特点,一是平行适用、互不交叉,二是梯度递进,给予个人信息更高程度的保护。人格权编将隐私权与个人信息保护并列到一起,引入交叉适用的模式,引发不少问题,包括重置个人信息保护与隐私权的关系,将隐私权保护逻辑套用到个人信息保护等。坚持平行适用,立足于整体制度设计,处理好《个人信息保护法》与《民法典》的关系,使不同机制分别发挥各自作用,有利于形成公私法合力的多元治理结构。


31

梅夏英:《企业数据权益原论:从财产到控制》,载《中外法学》2021年第5期,第1188-1207页。


企业数据权益在法律上如何定位和保护是当前互联网法学面临的理论难题。既有的理论主张主要从信息私权和财产权角度试图将数据纳入实体权利的框架中,参照传统私权规则来对企业数据进行调整。信息私权中的“数据库保护”和“商业秘密保护”规则与企业数据保护具有形式上的相似性,但在实质利益形态和涵盖范围上有根本差别,由此导致“信息内容保护”导向的失败。企业数据保护问题源于互联网的普及,只在数字技术语境中才有意义,故必须在区分信息问题和数据问题类型的背景下进行考察,由此企业数据权益应在整体上作为一个纯粹的数据问题予以讨论,企业数据财产理论因其客体无法确定很难成立。企业数据在利益形态上表现为对现实数据的有限自我控制,这种事实控制所含法律利益本质上体现为信息自由。基于此,企业数据的保护应当以维护数据的控制为基础,可通过侵权法、合同法和竞争法对围绕数据控制的争夺可能涉及的各种实际利益进行保护。


二、域外学术动态


01

Lena Ulbricht  Karen Yeung, Algorithmic regulation: A maturing concept for investigating regulation of and through algorithms, Regulation & Governance.


本文评估“算法规制”的概念,这是Yeung在2017年提出的一种社会协调和控制模式。我们强调在过去五年中,关于算法在社会中的作用的公共辩论发生了重大变化。我们还强调了从贡献中产生的突出主题,阐明了算法规制概念的独特之处,反思了算法规制的一些优势、局限性及其与更广泛研究领域的关系。最后,我们认为核心概念是有价值的和成熟的。它已发展成为一座分析桥梁,以丰富其早期“骨架”形式的方式促进跨学科发展和分析,从而能够在具体环境中对算法规制进行仔细和上下文敏感的分析,同时促进对现有和拟议监管制度合法性的批判性反思。


02

Karl Stögera; David Schneebergerb; Peter Kiesebergc; Andreas Holzinger, Legal aspects of data cleansing in medical AI, Computer Law & Security Review.


数据质量对于以机器学习为核心技术的现代数据驱动人工智能应用程序的顺利运行至关重要。对于医疗AI也是如此,其中由于“脏数据”而导致的故障可能会产生特别严重的有害影响。因此,数据清理是提高医疗人工智能系统(大)数据可用性的重要组成部分。但是,不应忽视的是,如果不仔细执行数据清理,也会对数据质量产生负面影响。本文采用跨学科视角,在欧洲医疗器械法的背景下,看看数据清理的一些技术和法律挑战,同时注意问题的关键是要在如此敏感的背景下必须始终将技术和法律方面一起考虑。


03

Paweł Nowik, Electronic personhood for artificial intelligence in the workplace, Computer Law & Security Review.


人类与人工智能的深远融合存在一些算法管理框架内的法律和伦理问题。这些问题之一是协同工作框架内合同当事人的法律主体性问题,包括服务提供商、包含人工智能的互联网平台和应用客户。作为算法管理过程的一部分,协同工作是人类与人工智能之间相互依赖和协作的一个很好的例子。以协同工作平台为例,我们不禁要问,面对人工智能和算法管理的飞速发展,人工智能能否成为具备电子人格的雇主?人工智能的工作环境有哪些特点?算法规制机制起主导作用吗?人工智能的电子主观性概念在雇佣关系中的实际应用会产生什么样的伦理影响?本文分析了电子人工智能主观性在工作环境中的法律和伦理影响。考察电子人格的法律建构。当员工受伤时,使用人工智能通过算法辅助管理工作流程的法人,承担由此产生的风险(经济、个人、技术和社会)和严格责任。责任条款可以通过针对人工智能用户的强制性保险计划和补偿基金来补充,该补偿基金可以在没有任何保险单涵盖风险时提供支持。补偿基金可以由人工智能的制造商、所有者、用户或培训师支付,并且可以补偿所有因此类操作而遭受损害的人。这是欧洲议会提出的方向,它逐渐呼吁赋予机器人电子人格。除了法律论据外,伦理问题也至关重要。


04

Jennifer Cobbe; Jatinder Singh, Artificial intelligence as a service: Legal responsibilities, liabilities, and policy challenges, Computer Law & Security Review.


人工智能服务 ('AIaaS') 将在社会的技术基础设施中发挥越来越大的作用,支持、促进许多应用程序的功能。因此,AIaaS 供应商在这个基础设施层面拥有重要的权力。我们评估提供商在欧盟法律中的地位,重点关注数据保护法中AIaaS 处理链控制权的分配以及向供应商提供保护,使其免于客户非法使用 AIaaS 的责任。我们认为,在数据保护法中,根据当前的实践,供应商通常是 AIaaS 处理链方面与客户的联合控制者。我们进一步认为,针对客户的非法活动,缺乏对供应商相应的保护。更重要的是,我们得出结论,供应商在客户应用程序功能中的角色——以及供应商和客户之间的重大权力不对称——对这些复杂、网络化、动态处理环境中的角色和责任的传统理解提出了挑战。最后,我们为未来对AIaaS的监管提出了一些相关问题。总之,AIaaS需要学术界、政策制定者和监管机构的关注。


05

Andreas Häuselmann, Fit for purpose? Affective Computing meets EU data protection law, International Data Privacy Law.


情感计算创建了一类新的数据(“情感数据”),这些数据本质上是个人的、敏感的和亲密的,但从法律的角度来看不一定被视为个人的或敏感的。GDPR中规定的信息义务并不强制控制者告知数据主体他们检测到的关于他们的特定情绪。由于其有争议的科学基础,情感计算与欧盟数据保护法中规定的准确性原则间产生张力。数据主体似乎没有办法纠正不准确的情绪数据。当情感计算应用于重要决策时,相关个人可以说没有足够的补救措施来应对挑战。


整理:李群涛

编辑:徐静赛

审稿:郑聪聪



继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存