欢迎访问北京强企知识产权研究院!
算法透明度及其民事诉讼证明标准
来源:知识产权家 日期:2023/01/28 浏览量:186

阙梓冰 

清华大学法学院助理研究员


摘要:算法透明的程度厘定应平衡商业秘密的保护、用户知情权的实现以及公共利益的维护,区分算法所涉及的不同领域、透明的不同对象以及透明的不同方式三个层次分别进行判断。体现在民事诉讼的证明标准中,就涉及用户不利影响的算法,算法使用人应证明其已经向监管机关完成透明义务,同时向用户以通俗语言说明算法的基本情况以及可能造成的后果;就不涉及用户不利影响的算法,算法使用人仅需证明其已经完成合规义务,即应认定其完成了相应的证明责任。


算法的应用不仅可能造成类似“大数据杀熟”的价格差异,还可能造成歧视问题。这些社会现象频繁出现,亟需法律介入进行规制。


现行法律已经对算法透明进行了相关规范,但由于规范层面并未明确算法透明的边界,在具体纠纷中,算法应透明到何种程度仍有待厘清。算法透明背后存在算法使用者、算法受众以及算法监管者三方主体,算法透明程度的厘定应平衡商业秘密的保护、用户知情权的实现以及公共利益的维护,这使得算法透明应区分所涉及的不同领域、不同对象以及不同方式三个层次分别进行判断。体现在民事诉讼的证明标准中,就涉及用户不利影响的算法。算法使用人应证明其已经向监管机关完成了透明义务,同时向用户以通俗语言说明算法的运用情况以及可能产生的后果;就不涉及用户不利影响的算法,算法使用人仅需证明其已经完成公法备案义务,即应认定其完成了相应的证明责任。



算法透明的规范体系与解释难题

算法,顾名思义就是计算机从数据输入到结果输出的计算方法。算法作为互联网发展的底层技术逻辑,绝非部分论者所称的处于“中立”地位。恰恰相反,算法的可设计性能够使算法系统参数的控制者按照个人价值观和目的重置算法内核,进而影响自动化决策结果。认识到“算法黑箱”可能滋生催生算法歧视的算法权力,我国现行法已经规定了诸多规则对此进行规范。


2018年通过的《电子商务法》第十八条规定:“电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项,尊重和平等保护消费者合法权益。”2020年文旅部发布的《在线旅游经营服务管理暂行规定》第十五条要求在线旅游经营者不得滥用大数据分析等技术手段,基于旅游者消费记录、旅游偏好等设置不公平的交易条件。2021年8月颁布的《个人信息保护法》第二十四条首次明确了算法透明原则,规定个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。2021年9月九部委颁布的《关于加强互联网信息服务算法综合治理的指导意见》,一方面在基本原则中要求“坚持权益保障,引导算法应用公平公正、透明可释,充分保障网民合法权益”,另一方面明确应秉持公平、公正原则,促进算法公开透明。新近颁布的《互联网信息服务算法推荐管理规定》第十二条再次强调,鼓励算法推荐服务提供者优化检索、排序、选择、推送、展示等规则的透明度和可解释性,避免对用户产生不良影响。


前述规范构筑了算法公平、公正原则和算法透明规则,于其中,算法公平、公正是算法透明和算法可解释的目标,算法透明则是保障算法公平、公正的手段之一。申言之,平台系统运行的算法应合理确定各类要素,通过透明和可解释的方式保证算法达到公平公正的结果。但问题在于,规范层面虽然明确要求算法透明,但未言明透明的程度。在具体纠纷中,算法应透明到何种程度方能认为算法使用者完成了算法透明的证明责任,仍有待厘清。算法透明对实现个人知情权、维护广大消费者权益至关重要,但其作为直接介入技术内部的措施,必然对算法使用者的权益产生影响。如何平衡前述矛盾、厘清算法透明的边界,诚需思考。



算法透明度的边界厘定

算法透明背后涉及多种主体,主体之间对于算法透明度的利益诉求迥然有异,不免存在冲突。正视算法背后的此种利益冲突,并以一以贯之的利益平衡思维予以调和,进而运用类型化方法明定算法透明度的边界,方能有效找寻民事诉讼中算法透明度的证明标准。


算法透明背后的利益冲突

谈论算法透明时,首要涉及的便是算法使用者的利益。算法使用者通过其商业投入,其算法可作为商业秘密受到保护。我国《民法典》将“商业秘密”列为知识产权的客体,明确商业秘密受到知识产权保护。《反不正当竞争法》从制定实施以来就强调对商业秘密的保护。《最高人民法院关于审理侵犯商业秘密民事案件适用法律若干问题的规定》进一步明确,与技术有关的“算法、数据、计算机程序及其有关文档”等信息属于商业秘密定义条款(第9条第4款)所称的“技术信息”。司法实践同样对企业的算法予以保护,在“全国首例消费者因检索服务状告电商平台违约案”中,原告要求电商平台透明其算法,但法院认为算法涉及商业秘密,故未支持原告的此项主张。


除算法使用者外,算法透明还直接关涉算法受众即用户的利益。算法并没有取代人,其只是改变了人工作的方式,即从传统的依赖人工计算决策转变为依赖于算法进行自动化决策。用户作为受众,算法透明有助于保障其对算法作用原理的知情权,进而保障用户自由、理性而不受歧视地行使相应权利。


算法在涉及作为单独受众的私主体利益的同时,基于其受众广泛而不特定,算法还将影响不特定主体的利益、关涉社会公共利益,进而涉及作为公共利益代表的算法监管者。算法监管者关注的更多是算法设计者如何通过源代码对算法进行设计,此种设计是否会导致不特定主体也即公共利益的损害。当然,不透明的算法并非总是会危害社会公共利益,部分不透明的算法有效调和了不同群体之间已有的歧视问题。


上述三者的利益期待在算法透明的程度选择上将产生冲突。算法使用者基于被公开的算法信息可能涉及商业秘密,必然力图减少算法透明度 ;用户则希望通过更高程度的算法透明,实现其知情权进而免于受到歧视 ;算法监督者需要通过落实算法透明度原则维护公共利益,自然也希望算法能够有较高的透明程度。由此可见,就算法透明度的程度而言,存在两对利益冲突关系,即算法使用者和用户的冲突,以及算法使用者和算法监管者的冲突。


基于平衡理念的算法透明体系

在用户与算法使用者的关系中,并不存在绝对的优位价值,商业秘密保护和用户知情权维护同为法律所欲促成的目标。在法理层面,平衡或者解决利益冲突的常用手段是对利益进行限制。利益冲突表面上是利益期待的交叉,背后则蕴含着是否对某种利益进行限制或强化保护的价值判断。在算法使用者和监管者的关系中,公共利益优先系理论界与实务界的共识,但这仍应把握公共利益的范围,避免给企业造成过重负担。对于前述利益冲突的调和,有待于区分不同层次分别展开。


在第一个层次,应当对算法涉及的领域进行分类。从对个人的影响出发,可以类型化为涉及用户不利影响,即可能造成歧视性后果的算法,比如针对种族、肤色、政治观点、宗教、工会身份、生物数据的算法。此时,应当在价值判断上倾向于用户的人格权益,相应领域的算法属于需要进行高透明度的算法。相反,一些基于统计数据进行首页推荐的算法、与用户画像无涉的算法等,对用户权益影响较小,如果仍要求算法使用者对其透明,将使得企业的商业秘密不当暴露在竞争对手的视线当中。此类算法应属于低透明度算法。


在第二个层次,应当区分算法透明的不同对象,进而对算法透明度进行类型化区分。对于监管机关而言,其具有专业的知识能力对算法的设计进行检验和评估,对商业秘密的保护能力也更强。因此,相较于面向公众的披露,算法使用者面向监管时,应当对算法进行更深入、彻底的披露,包括算法的整体逻辑和技术细节,监管机构也应当做好保密义务。如《关于规范金融机构资产管理业务的指导意见》就明确要求,金融机构应向金融监督管理部门报备人工智能模型的主要参数以及资产配置的主要逻辑。相反,对于消费者等公众而言,其不具备理解机器语言的专业能力,更无法对算法设计进行评估,诸如披露算法的源代码等最为细节的内容,对于普通用户而言没有太大意义;同时,对算法技术细节的披露还会泄露企业的商业秘密,并可能被攻击者利用而对算法进行攻击。此时,算法透明程度无需过高,这也是保护商业秘密、避免企业核心算法被同业竞争者抄袭、维护企业的创新动力和活力的应有之义。


在第三个层次,应区分算法透明的方式。算法透明可以依据其必要性分为一般性透明和个案透明。一般性透明即以统一、固定的方式对算法的逻辑进行整体披露,这对于企业商业秘密的侵害较大,此种披露应仅限于针对监管机关。个案透明则是指在具体纠纷中,由算法使用者就单个用户的单次决策结果进行针对性的说明。个案透明虽然对企业影响程度小,但仍应在必要时方才适用,也即在涉及用户不利影响时方有透明的必要。


前述三个层次具有层层递进的关系。确定算法作用的领域,进而可以类型化出需要高度透明的算法 ;对于高度透明的算法,应进一步区分透明的不同对象,对于不同的对象适用不同的透明方式,面对监管机关时应采用一般性透明方式,面向用户时则主要采取个案透明方式。


总结而言,厘清算法透明度的边界需要厘清算法透明背后的利益冲突,此种利益冲突的解决之道在于区分不同层次对算法透明程度进行区分。经此利益平衡,算法透明与商业秘密之间方可各自让步、互相协调。本部分的结论将为民事诉讼中算法透明度的证明标准提供指引,循此路径,具体纠纷中的算法透明度标准便可有效把握。



算法透明度的证明标准构建

前述利益平衡的方案,终究需要落实到具体的纠纷解决中。在民事诉讼里,用户作为原告通常会要求被告企业对算法进行透明,此时便需要将前文的价值结论具体落实于民事诉讼的证明标准之中。


涉及用户不利影响的算法透明

算法透明的目标在于保证用户的知情权,对于用户而言,其所关注的核心信息是算法可能带来的不利影响,故而用户不需要深入了解算法的构造、运行原理等,而仅应关注算法的应用对其现实的和潜在的不利影响。在此基础上,用户原则上仅得请求透明算法的基本情况和相应后果,无权要求算法使用者透明算法的基本原理、运行机制等,这也是维护算法使用人的商业秘密的应然之道。欧盟《通用数据保护条例》(GDPR)的规定同样如此。GDPR第13、14、15条均明确,在算法决策中,个人信息控制者应当告知个人信息主体算法决策运用的情况,以及此类处理对于数据主体的重要性和可能产生的后果,并未要求披露算法的基本原理和运作机制等核心信息。


与此同时,此种面向用户的透明应以通俗易懂的语言进行;在透明的具体内容上,可以秉承确保用户知情权使其能够在真正了解算法影响的基础上做出选择的核心思想,并将“算法决策运用的情况”和“对于数据主体的重要性和可能产生的后果”场景化。一方面,关于算法决策运用情况的说明可以包括算法的输入方式、决定算法决策结果的因素以及算法的输出方式,对于数据主体的重要性和可能产生的后果则包括算法决策的结果与个人之间的关系。另一方面,算法的透明应结合不同的场景展开,比如电商平台的算法透明应重点就个性化推荐问题进行说明,而在线旅游平台则应主要就价格形成机制进行说明。


在涉及用户不利影响时,算法不仅需要面对用户进行透明,还需要面向监管机构完成透明义务。如前所述,在面向监管机构时,算法使用者应当详细披露相关算法的基本原理和运行逻辑,以防止个人信息泄露的不当风险。


算法使用者的前述义务,可以在民事诉讼中进行对应。算法使用者的证明责任在于证明其已经面向监管机关完成了算法的透明,以及已经在个案中向用户以通俗的方式对算法决策运用情况和对用户的影响进行了解释说明。在司法判断上,就算法使用者而言,若其能够提交监管机构出具的证明,证明其已经向监管部门进行了算法的透明,则应当认为其已经完成了相应的证明义务。就面向用户的透明而言,法官此时具有自由心证的空间,其可以以普通人的视角,裁量算法使用者的说明是否通俗易懂,是否已经确定、充分地说明了算法运用的情况和对用户的影响;在算法使用者已经以非专业用户能够理解的语言说明了相应内容的情况下,则应当认为算法使用者完成了相应的证明义务。


未涉及用户不利影响的算法透明

在未涉及用户重大权益时,商业秘密(知识产权)保护以及促进企业创新等价值应当得到优先维护。此时,算法使用者仅需遵循公法义务,就符合相应监管规则作出说明。在面对公众时,由于不涉及用户的不利影响,此时算法使用者不具有面向用户的透明义务,这乃是算法透明的制度使然,也是权衡各方利益后的结果。此时,只要算法使用者能够提交监管机构出具的证明,证明其已经向监管部门时进行了算法的透明,符合合规要求,则完成了相应的证明责任。


此种不要求向用户透明的方式,绝不意味着对用户权益的漠视。一方面,不要求对用户进行透明不意味着继续纵容“算法黑箱”,算法使用者向监管机构的透明已经足以保证算法的公平公正,能够保证抽象意义上的用户合法权益。另一方面,用户仍有广泛意义上的选择平台的自由,即便个人不理解不涉及个人不利影响的算法使用情况,也可以径自拒绝接受相应算法约束,转而使用其他平台提供的服务。


综合本文分析,算法透明的程度厘定应平衡商业秘密的保护、用户知情权的实现以及公共利益的维护,区分算法所涉及的不同领域、透明的不同对象以及透明的不同方式三个层次分别进行判断。体现在民事诉讼的证明标准中,就涉及用户不利影响的算法,算法使用人应证明其已经向监管机关完成透明义务,同时向用户以通俗语言说明算法的基本情况以及可能造成的后果;就不涉及用户不利影响的算法,算法使用人仅需证明其已经完成合规义务,即应认定其完成了相应的证明责任。在民事诉讼中厘清算法透明度的标准诚然重要,但是此种限于事后救济的方式仍有力不能及之处。从长远看,平台企业的算法合规建设,方是保障算法治理能够行稳致远的根本。平台应遵循科技伦理道德,自主对平台上的算法进行审核、评估和干预,从根本上保障算法的公平公正。

010-57297529