欢迎光临中国知识产权协同创新网!
您的位置  首页  中心成果  期刊论文
梁志文:论算法排他权:破除算法偏见的路径选择
作者:梁志文 来源:《政治与法律》 日期:2021-07-02

本文发表在《政治与法律》2020年第8


摘要:算法属于计算技术和人工智能的核心技术。伴随着算法日益介入人类社会生活,被算法不透明( 即算法黑箱) 所遮蔽的算法偏见问题日趋严重,特别是在算法被应用于公权力行使的场合,它加剧了社会不平等、侵害个人权利等问题。现有的解决方案是构建算法透明度与算法可解释规则,但它难以完美地解决算法偏见的问题,还侵害了算法开发者的商业秘密。为了增加算法的透明度,可借鉴保护药品数据的管制性排他权制度,以算法公开( 保存源代码) 为对价赋予算法开发者一定期限内的市场排他权。将管制性排他权模式移植至算法保护,其基本规制目的是克服对算法监督的困难。算法排他权不会排斥算法受其他知识产权的保护。


关键词:算法排他权;算法规制;算法偏见;算法透明度;商业秘密


一、问题的提出


算法(algorithm)是指将输入转换成输出的计算步骤的序列,本质上是任何良定义的计算过程,该过程将值或值的集合作为输入,并将某个值或值的集合作为输出。[1]在数字时代,人们的日常生活日益受制于各种网络平台所采用的算法,如通过平台进行的内容分发、购物推荐、旅游规划、出行定制、交友婚配。不仅如此,在工作聘雇、学位分配、车牌摇号乃至刑事司法、智慧城市、智慧政府、智慧法院等领域和社会活动中,算法辅助甚至取代了公权力决策。如今,算法日益影响着人们的安全、民主、自由等方方面面;人类社会已俨然进入算法治理的时代,算法主导的社会治理被认为具有客观性、自动化和高效率的优势。[2]


然而,大数据杀熟、就业歧视、种族歧视等算法操控事件反映出民众对算法的疏离和社会对算法治理的无能为力。与此同时,这也使得越来越多的人认识到有些算法仍然为带着某种偏见的“智人”所掌握,机器学习并没有能力摒弃算法开发者主观偏见的能力。[3]算法偏见问题日益引发人们的反思和警惕。所谓算法偏见,是指“算法开发者或所有者可以调控程序参数,从而得到想要看到的结果”。[4]从技术层面来看,算法偏见产生的原因主要有两类,即数据偏见与算法设计偏见。前者主要包括数据输入层、训练数据层所产生的偏见,如不准确的数据收集方法导致偏离真相的数据描述,数据本身存在结构性的偏见(如以男性为主导的行业来评估所有成功人士的标准)。[5]后者是算法设计(即编程)选择时所产生的偏见,如数据标签(分类)、噪声数据的处理(即对数据正相关或负相关性的矫正)、各种变量及其权重的设置,都可能体现设计者本身的偏见或局限。[6]


随着计算技术的日益成熟,算法渗透市民生活的广度与深度也在不断延展。无形的智能算法已经改变了人类的生产、消费方式以及生产、社会关系。尽管算法偏见在算法治理社会中表现出隐蔽性、开放性、多样性的特点,但从技术层面来看,任何层面的失误,无论有意(如大数据杀熟)还是无意(如训练数据的不完整),都将损害受算法影响的主体的合法权益,也必将带来一系列的社会问题,包括社会公平、财富分配和社会诚信体系建设等。[7]具体而言,算法偏见所造成的损害后果主要包括三大类型,即损害公民基本权利(如歧视、违反正当程序)、损害市场竞争者利益(如市场支配地位经营者设置竞争准入障碍)和损害具体民事权益(如侵害隐私权)。


在现有研究中,人们将较多注意力集中于算法可能侵害个人数据权益和隐私权的情形,忽略了算法权力即隐含于公权力行使中的算法应用,如基于公共安全开发的人脸识别算法而预测恐怖分子嫌疑人的飞机禁乘名单,又如把算法用于刑事犯罪风险评估乃至量刑决策,将越来越多的行为规制纳入征信体系的公共服务。此时,若出现算法偏见,必将严重影响正当程序、社会公平以及公民自由等基本权利。在此场合,算法不只是一种新技术,更是新的权力形态。[8]因此,在算法治理时代规制算法权力、避免算法偏见具有极其重要的意义。欧盟《通用数据保护条例》(英文缩写为:GDPR)首次在成文法上提出了算法问责原则下的规制方案,核心是其第12条规定的以算法透明度来实现算法的可解释性,并且,其第22条通过赋予反对权(即数据主体有权反对完全依靠自动化处理的决策)的方式,进而实现算法权力下的正当程序。学术上的不同解决方案不外乎从技术层面(如开发规制算法的算法)、风险控制层面(如引入第三方监管制度)和具体方法层面(主要透过个人赋权的方式)来矫正权力失衡所产生的算法偏见。[9]前两类方案被称之为“经由设计的算法治理”(Governance-by-Design),其具体路径有两条。一是为算法开发者设置行为规范,开发出自动决策结果符合用户友好的、符合伦理道德的算法,[10]或者鼓励开发出新的算法技术。该方法的本质是自治模式,在巨额经济利益背景下,它难以独自发挥有效的规制作用。二是建立强制性的第三方评估机制,评估的基本标准包括谦和、具有灵活性且克制的设计,人权与公共权力优先,确保监管机构拥有合适的工具(包括广泛的权力能力和技术专家),确保政策的公开性等。[11]然而,算法治理为动态博弈过程,基于静态考虑的评估机制在公权力应用中难以实现有效规制。[12]个人赋权模式(即欧盟模式)将公私权力(权利)混同,它主要是通过被管制者的对抗性权利(算法可解释性、反对权等)来规制算法权力,但基本的事实是普通公众无技术能力来行使对抗几乎无处不在的算法治理的权利,难以防范算法权力异化。


总体而言,上述方案均落脚于提高算法透明度,未能考虑到算法透明度的实践困境。无论是鼓励告密式(whistleblowing)的举报模式(即将具有公共利益而披露偏见算法的行为视为合法行为),[13]还是法律应区分“玻璃鱼缸式的透明度”(fishbowl transparency)与“合理透明度”(reasoned transparency)的建议,[14]其最大的问题都是损害算法开发者的知识产权(商业秘密),因为训练数据和算法都有可能属于开发者拥有的商业秘密。[15]算法是人工智能应用的核心技术之一,也是创新者的主要技术贡献,算法透明将损害其商业秘密的地位,这意味着其核心竞争力的丧失。因此,在矫正算法偏见的同时激励算法创新,应该是算法权力规制制度的基本原则。据此,笔者从提高算法透明度这一解决方案的局限性出发,主张借鉴药品数据保护的法律制度,认为应该在算法权力领域建立以提供透明度为对价的算法排他权。


二、算法透明度与可解释性规则的局限性


伴随算法对社会生活干预的深入,法律对算法的规制经历了三个不同的阶段,即以传统规则应对算法引发的社会问题,规制算法设计,同时规制算法设计与算法部署应用。[16] 这标志着法律从一种消极的应对态度逐渐转变为积极干预算法的生成,以破解算法开发者与算法应用对象信息不对称引发的社会治理问题。其中,对算法偏见的规制逐渐成为社会治理的重心。产生算法偏见的原因在于算法的具体运作是不透明的,这意味着社会个体面对的只是经算法处理过后呈现的结果,没有办法审查算法产生结果的过程。不透明被认为是数学杀伤性武器(Weapons of Math Destruction)的特征之一。[17]如果不存在外在激励制度,算法拥有者没有动力主动公开其算法,因为保密意味着经济利益。因此,规定算法透明度和可解释性义务就成为规制算法的重要法律规则。


2019 年实施的我国《电子商务法》对电子商务平台增设了算法责任,初步建立了算法事前监督机制。[18]从域外看,欧盟较早开始建立规制算法透明度的法律规则。虽然欧盟《数据保护指令》并没有将透明性作为一项基本原则加以规定,但欧盟《通用数据保护条例》已经注意到算法透明对社会运行发展的重要作用,其第5 条明确规定了透明性原则,并且其第13 条至第15 条规定算法开发者向欧盟管理机构负有算法解释义务。开发者的算法解释义务可理解为对抗算法的知情权,[19]是信息不对称的矫正工具。[20]其基本的技术依据是,算法可解释性甚至可视化都是通过技术来解决问题,一旦法律制度有所要求,技术界便会按照要求做出反应,使得算法的可解释性成为可能。[21]然而,对被解释对象的理解需要专业的知识,可解释性规则对于算法透明度的实现所能达到的效果可能并不如想象中的那样乐观。


第一,算法透明度和可解释性规则的实施面临技术困境。从技术层面来看,增加算法透明度存在两种技术方式,即解锁I-T-O三阶段和反向工程。算法的运用一般可以分为三个阶段:数据输入→数据吞吐→数据输出,即I-T-O三阶段。它是“将欲解决问题抽象成计算问题,提炼出问题的输入数据和研究问题的解的数据特性,问题转换成输入和输出问题”。[22]解锁I-T-O三阶段即意味着对算法运行的数据输入、数据吞吐、数据输出都需要完全地公开。数据输入具有一定的可控性,摒除偏见则可对数据输入的主体进行相应的监督规制。数据输出是经过算法运用后产生的结果,不可能针对数据输出设置规则而达到增加算法透明度的目的,数据输出结果的真实性只能依据数据吞吐的无偏见,而不能够依据结果判断过程的正当性。


因为学习是人工智能的主要标志和知识获取的主要途径,[23]所以无论是监督学习还是无监督学习,运用解锁I-T-O三阶段而试图增加算法的透明度在技术上都有难以克服的困难。以无监督学习算法为例,要实现完全公开非常困难。因为无监督学习的算法在进行机器学习之后,机器实现自组织过程。[24]“以机器学习为代表的第三次人工智能发展浪潮的兴起,则突破了‘波兰尼悖论’的束缚,机器学习算法可以通过基于大数据的自我训练、自我学习过程完成参数调整与模型构建,也即完成算法的自我生产过程。”[25]即使算法开发者也没有办法掌握算法进行数据处理的选取标准以及操作步骤。并且,无监督式的算法学习在模型拟合之后不断加入越发复杂的变量,以致公开的对象变得越加模糊,无法做到完全公开。


算法可解释性规则的设立是为了解释深度神经网络结果产生的因果关系。人工智能技术具有不同于传统的信息处理模式,因果联系探求(即可解释性)困难的根本原因在于现今算法编写遵循的是关联推理而非因果推理。[26]在目前发展阶段,人工智能模仿人脑并力图制造人脑,[27]但是面临确定因果逻辑的技术障碍。为了模拟人脑进行的信息处理,现在人工智能技术只能依靠数据统计、计算智能解决智能模拟问题,但它又面临“局部极值”的困境。为此,算法开发者连续使用数据统计法来增加神经网络的中间层次进行数据的拟合。这使算法的可解释性变得极为模糊,无法探求数据输出与数据输入之间存在的因果联系。通过反向工程来实现算法透明和可解释性也具有同样的技术障碍。反向工程是指专业技术人员通过算法生成的结果推测算法黑箱中存在的运算步骤,[28]是从结果推断其如何产生的过程,它仍然存在着不可克服的技术困难。一方面,算法的反馈环路是人为操控的,不可避免地存在人为的主观判断因素。[29]另一方面,算法的动态性加剧了透明的困难程度,因为反向工程不可避免地存在着时间差。反向工程的还原程度与抽象层次、反向工程对象完整度、实施对象与反向工具的交互程度有着直接关系,但是各决定要素之间存在着悖反关系,抽象层次与完整度成反比。[30]并且,在有些情况下,反向工程本身的合法性还存在法律争议。[31]


第二,算法透明度和可解释性规则的实施面临法律困境与道德难题。即使有相应的技术支撑,算法的公开仍然存在着法律上、道德上的难题。算法透明意味着被收集数据主体的“个人数据”被公开,这会产生前所未有的隐私泄露风险,[32]从而违反了保护隐私权的法律。虽然对于隐私权的界定存在各种学说,但是在权利内容层面还是存在共识的,即私人空间、私人信息、私人活动不受他人干扰和侵犯。[33]尽管法律规定了敏感信息的脱敏处理义务,但数据挖掘技术可能架空脱敏处理的实际效果。并且,算法权力所涉之应用场景,如工作聘雇、量刑处罚等,必然会应用敏感信息。在理论上,这体现了隐私权与公众知情权之间的矛盾。当作为代表公共利益的知情权与作为私权利的隐私权发生权利冲突时,以多数人的利益高于个人利益为由牺牲隐私权,这种自认为符合道德倾向性的论调逐渐被质疑,[34]公益优先的理由不足以支撑优先保护知情权的观点。[35]这是因为隐私保护的私密性取决于个人意志,个体有权保护自己的私人信息不被他人知晓。而算法的现有规制模式如果不能遵循隐私保护的进路,其正当性也必然受到限制。


我国现行立法模式下的法律实施效果也存在可疑之处。为规制算法偏见,法律制度设置事后救济途径,但在实际操作层面存在难以实施的困境。因为信息不对称使得算法偏见潜伏在生活各处而不被发现。私主体即使发现算法偏见影响其权利,在遵循举证责任分配的基本原则下,其也无力承担繁重的举证责任; 加上在侵权主体不唯一的前提下,维权成本并没有分摊机制,维权利益则惠及所有主体,私主体并没有足够的动力开展诉讼救济。与此同时,在侵权事实明确的前提下,算法责任仅体现为处罚,并不能实现算法公开的维权目的。[36] 因此,事后救济式的规制手段并不能实现促进算法透明的制度目的。


第三,算法透明度和可解释性规则的实施影响开发者的市场竞争力。算法本身对于掌握算法的互联网平台企业具有显著的重要性,被认为属于其核心竞争力。[37]例如,在达拉斯枪击案中,以动画为载体宣传恐怖内容的视频在YouTube 上广泛传播,[38]民众对YouTube 的个性化推荐算法尽管颇为不满,要求其公开算法增加透明度,但是YouTube 始终不愿意公开,原因在于算法是其核心竞争力,如果算法公开,将对其市场竞争能力产生巨大的负面影响。算法之于互联网企业的重要性,有如可口可乐的配方之于可口可乐公司。算法设计存在相应的评价机制,不同的算法在正确性、可读性以及时间复杂度和空间复杂度的表现并不一样,[39]也就具有不同的效率和竞争力。


三、现有的知识产权法律保护


算法的困境在技术层面,算法是计算机技术发展的驱动力量;在市场竞争层面,算法是企业的核心竞争力。在提高算法透明度和可解释性的同时,应如何保护算法开发者的创新成果呢? 这是包括欧盟《通用数据保护条例》在内的算法权力规制法律制度所未能回答的问题。一般来说,知识产权制度被视为是激励创新的法律。因此,如果要通过算法透明度来规制算法权力,知识产权制度就应该为算法创新提供适当的激励。然而,现有知识产权制度对算法创新的保护与算法权力规制方法之间存在一定的紧张关系。


(一)算法受专利与版权保护的困境


美国法上算法是否受专利保护,有一个渐进的发展过程。起初,美国法以“算法系智力步骤,是一种思想”而拒绝给予专利保护。1982DiamondvDiehra案的判决则意味着美国联邦最高法院向“美国专利商标局和下一级法院发出信号,在适当的时候,涉及计算机的发明可给予专利保护”。[40]此后,经过逐步发展,“按照联邦巡回上诉法院的最新观点,任何可以获得实际结果的发明都是可授予专利的主题”。[41]在欧洲,虽然计算机程序明确被排除出专利客体范围,但如果“由计算机实施的发明”具有技术特征、技术效果,该发明仍可能成为专利保护的客体。[42]技术效果是判断其可否成为专利客体的实质条件。[43]在实践中,欧洲专利局对于计算机有关发明是否可以成为专利客体的标准较低,这使得有能力的专利撰写者都可以规避《欧洲专利条约》(EPC)第52条第2款(即智力活动的规则不受保护)的规定。[44]与欧盟类似,中国也对“由计算机实施的发明”在一定条件下授予专利权。


然而,无论如何变通,算法本质上仍旧属于智力步骤,只不过该步骤通常以电子方式进行。因此,它难以摆脱专利法不保护智力活动规则的束缚。一方面,由计算机实施的发明受到专利法保护,但算法本身难以落入专利权保护范围。因为算法可否获得专利保护还需要回归到算法本身是否符合专利保护的条件。[45]作为最核心的竞争力,虽然算法表达有多种样态,但是其描述大多使用伪代码表示;在语法结构中,以快速排序为例,虽然存在C/C+语言、JavaPerlVerilog等具体语法规则,但其元素或者结构都存在相似之处。[46]斯坦纳总结了算法发展趋势:越来越多的开发者采用相似的算法来开展竞争,以致于出现如果在“智慧上不能胜对手,那就在设备上压制对手”的发展策略,如计算机秘密高速公路的建设。[47]另一方面,如果依据专利法来寻求算法的保护,权利人则必须将算法向社会“充分公开”,以使得本领域的普通技术人员能够予以实施。这体现了专利制度的占有、教导、信息传播等功能。[48]不过,这一制度仍然无助于解决算法的透明度。这是因为它以本领域的普通技术人员为主体标准,对于社会公众而言,要理解算法的实际实施效果,并非易事。更重要的是,越来越多的文献已经指出,由于专利申请人的公开义务并非以产品成功商业化为准,“大量有关发明的实用信息仍然保留在专利权人手中”,[49]“公司运用专利和难以反向工程的商业秘密这两者所具有的共同锁定效应,维护专利期届满后的市场垄断”。[50]


算法的保护路径,除了其软、硬件结合可获得专利外,还有可能获得版权法的保护。[51]我国《计算机软件保护条例》第3条、第4条对可保护对象有着明确的规定,其具体要求可保护对象是固定在有形物体上的可被执行的代码化指令序列、符号化指令序列、符号化语句序列。算法有多种方法可以描述,如自然语言描述法、流程图描述法、伪代码描述法。然而,自然语言描述因其字句的歧义难以作为算法描述,流程图只能适用简单的流程表述,故实用的描述工具是伪代码。[52]算法如果希望寻求版权法的保护,则其具体表达必须为伪代码。不过,版权保护范围并不包括超出代码的字面表达。[53]因为计算机软件是功能性技术产品,在版权法“思想/表达二分”的基本前提下,软件版权的保护对象范围模糊。[54]在进行软件版权保护对象判断时,容易将思想与表达混淆,算法的版权保护有延及功能的危险,但在坚持“沟渠原则”以区分保护客体的前提下,算法本身往往得不到版权法的保护,且版权法无法保护程序结构、序列、组织、步骤等“非文字”部分。


虽然作品一经创作就可获得保护,但实际上其价值仍然离不开作品的公开(发表),即应该能够被公众知悉。就算法而言,知悉不只是简单的公布,而是还需要提供一定的信息,伪代码的语法结构有着严格的约定,不同的语词表示不同运算结构,作为一般的公众很难从中获得有益信息。即使要求有益信息的提供对象限于具有相关知识的人员,版权法上构成作品公开的也只是计算机软件的目标代码,它无法满足算法透明度的要求。[55]弄清楚程序实际的工作方式,特别是评估程序的可靠性,首先要阅读源代码。实际上,对于程序的保护,权利人通常采取将程序分离成独自的模块分别予以保护的策略,源代码由商业秘密法保护,目标代码由版权法保护。[56]软件只有公布了源代码,公众才可能了解软件算法的具体设置。因为即使目标代码被公开,社会公众仍旧无法了解算法的运行机理,无法实现监督目的。版权法对算法的规制无法克服基于私人控制需要的保密的主流趋势。[57]


综上所述,以专利和版权保护算法存在两大困境。第一,算法本身可能不满足特定权利客体的必要条件。第二,算法本身即使满足权利客体的必要条件,但是基于权利类型构造的独特性,它也无法满足增加算法透明度的规制要求。


(二)算法受商业秘密保护的困境


在版权与专利法保护方面,算法权力规制有一系列的实质性障碍,加上源代码对开发者的市场价值体现为其与公众的隔离,法律和市场的双重作用使保密仍占据算法保护方面的主导地位。[58]


法律文本一般将商业秘密定义为不为公众所知悉、能为权利人带来经济利益、具有实用性并经权利人采取保密措施的技术信息和经营信息。也就是说,商业秘密具有秘密性、实用性、保密性、价值性。更具针对性地说,如果权利人希望用商业秘密来保护其信息,则能够证明该信息具有秘密性和保密性是核心要素。其首先需要证明该信息未被公众所知晓,其次需要证明其采取了合理的措施来维护信息的秘密性。“法院经常进行成本效益分析,以平衡公司确实采取适当预防措施以保护其商业秘密的必要性与人们对采纳这些措施负担过于繁重的担忧之间的关系,许多法院还把保持秘密的努力看作是基本商业秘密价值的一种作用。”[59]


商业秘密的秘密性特征与算法的透明度完全冲突,因为一旦商业秘密被公开,它就将成为公共信息。对算法予以商业秘密保护,传统上采取的保密措施主要包括保密协议、竞业禁止协议、采用相应的技术措施防止他人进行反向工程,但这些措施显然不能全部满足算法保护的要求,并与增加算法透明性的要求相违背。公众要求增加算法的透明度,是为了使算法的开发受到一定力度的监督,但是,如果希望用商业秘密保护算法,则必须使得信息处于一个相对机密的状态。这会阻碍信息共享,并且,商业秘密的保密性还会使得原有公共领域的素材不能披露,这将压缩公共领域的规模,同时,在自动化决策的时代,它将使商业秘密的功能从防止竞争对手盗用转至阻碍公众的调查。[60]


当算法广泛运用于商业之外的领域(如升学、司法以及刑事调查等)时,其会影响公众的民主、自由、平等、正当程序等,对算法权力的规制迫切需要提高算法透明度。然而,商业秘密保护下的算法难以被合法地披露。一方面,虽然商业秘密法允许独立发现、反向工程以及使用离职员工的一般知识和技能,[61]但随着软件行业保密性越来越强以及算法技术保密措施的发展,“独立发现”、“反向工程”等通过技术手段实现权利限制的目的难以实现,而自动化技术的发展使得“使用离职员工的一般知识和技能”的权利限制的前提都变得不复存在。另一方面,商业秘密法并未有公共利益披露的例外规则,其重要的原因是,算法一旦公开,则意味着开发者核心竞争力的丧失。因此,在算法未被合法披露之前,其开发者将永久获得对信息的垄断使用。这既使算法本身的最大价值得不到最佳发挥,也影响对算法进行优劣评价的机制运作,难以实现最优算法的广泛运用。综上所述,在传统知识产权制度下,算法规制的主要矛盾表现为,社会公众对提升算法透明度的客观需求与算法秘密性对于开发者维护竞争优势的重要价值之间的冲突。传统知识产权的权利类型对算法规制的最大问题在于,在具有重大公共利益的情况下,它们未能在激励创新的专有权保护与促进算法权力规制的信息披露之间予以合理平衡、协调。[62]因此,需要从制度构建层面寻求新的回应机制。


四、以市场进入管制换取算法透明度


有学者指出,算法发展到本体化算法阶段,对法律制度规制的有效性提出了更为严苛的要求,双轨制的规制路径强调需要事前防治与事后补救同时发挥作用。[63]事后补救机制只能对侵权对象提供事后的救济,算法偏见中的被侵权对象往往表现出群体性特征,加之算法可解释性规则在技术、实践操作难度上都存在难以克服的障碍,并不能完美解决算法偏见引发的问题,故法律规制的重心应该放在算法进入市场之前的监管。换言之,对算法的规制应该坚持通过在制度建构中引入强有力的法律框架以预防算法偏见发生的基本思路。质言之,通过市场准入时算法透明度的管制来规制算法权力,是事前防治的重要举措。对此,需要从理论上解决的问题是,如何保障算法的秘密性利益,因为它对开发者的利益实现具有重要作用。鉴于版权法、专利法和商业秘密法都未提供激励信息披露的恰当机制,可以从理论上探讨一种假设,即以赋予算法在市场准入方面一定期限的排他性来换取算法透明,这样便能在法律体系中找到一种能平衡利益冲突的新的权利类型。


创设新的权利类型来对社会个体的某项行为进行保护,首先,需要证成某项行为是否应该属于社会个体的权利。社会个体对某项行为拥有利益是对其享有权利的必然条件。算法附着了开发者的劳动,且属于其核心竞争力;其次,需要证成在现行的权利制度中没有权利类型可以对某项行为进行合目的性的保护,这是因为权利的证成还需要证明社会个体对事物某一方面的利益是使其他人承担义务的充分理由。[64]算法如果不被保护,则至少在互联网企业竞争领域回到“一切人对一切人”的原初状态,不能满足社会稳定的要求。因此,无论是从个体利益的要求还是从社会整体的利益要求看,法律制度对算法进行赋权,都是“对相互作用的个体对新的收益-成本的可能渴望进行调整的回应”。[65]财产制度的确立形成的预期根植于人类行为及个体与社会的关系中。[66]算法的利益属性上升至权利类型保护,是将财产理解为社会关系预期的必然安排。


更重要的是,这也符合知识产权保护范围与类型处于不断扩张之中的历史趋势。在本质上,现代知识产权制度越来越体现“作为政府管制的一种形式”的基本属性:“为实现社会价值的终极目标,政府( 以此为手段) 限制市场准入,或者在批准市场进入后作为价格控制的替代。”[67]从这一点出发,有学者将其归结并统称为后工业时代的财产权观念——管制性财产(regulatory property)。[68]现有的法律制度对药品及农用化学产品上市审批所需测试数据或其他数据提供了排他权的保护,即管制性排他权。这集中体现了“后工业产权”(postindustrial property) 的特性,“它保护那些为满足产品上市标准而生产并递交给主管部门的信息。鉴于政府‘征收或赋权(takings and givings)’属于对已有资源的再分配这一认识,它就会在社会成员之间产生财富转移的效应”。[69]


管制性排他权是一种新型的知识产权类型,指“在一定期限内,产品上市主管部门仅允许创新者使用其递交的用于证明产品安全性、有效性的数据,其不得利用这些数据来审批其他(相同产品的)上市申请,也不得允许其他(相同产品的)申请者利用这些数据来获得上市申请( 数据专有权);或者禁止其他人不正当地商业性利用这些数据(数据保护);或者对符合条件的创新者在一定期限内拒绝批准竞争产品上市(市场排他权)”。[70]管制性排他权具有排除他人进入市场的属性,属于准专利权;它也能够排除竞争者在一段时间内获得其数据,具有准商业秘密性质,同时,其所保护的数据可以在市场进行自由流转和交易,具有财产权属性。然而,专利与商业秘密等保护制度都缺少对安全性和有效性的关注,而安全和有效性信息的开发是管制性排他权的唯一重点。[71]这也是数据保护独立于专利保护的理由所在。以药品数据保护为例,不断发生的药害事件促成了药品监管制度的创设,但它直接提高了药品开发的成本。正如美国著名经济学家、诺贝尔奖获得者斯蒂格利茨所指出的,上市管制所导致的药品临床试验成本急剧上升是影响药品创新的重要因素。[72]药品数据也就构成了原研药商拥有的重要的私人财产,数据的公开意味着市场竞争者可以获取相应的数据,导致其竞争优势的丧失,但对药品数据采取保密保护的进路将会损害公共利益。[73]由此可见,药品数据保护的核心矛盾是代表个人利益的保密利益与用药安全等公共利益之间的冲突。管制性排他权的创立,正是为技术创新者提供补偿,以实现激励创新的目的的制度安排。[74]


类似于药品数据的管制性排他权保护,以市场进入管制换取算法透明度是一种理想的、调和私人权利与公共利益冲突的进路。以管制换取透明度的主要理由在于,在以路径依赖实现算法透明度的目的时,可以激励算法创新。借鉴知识产权管制排他权制度,以管制的方式实现算法透明度目的,并激励算法创新,可以节约立法成本,有利于加快算法保护的进程。国家在具体技术层面没有能力做到通过技术或者现有的法律制度促使算法得以公开。为满足社会公众监督算法权力的需要,应当通过法律制度的建构,促使算法拥有者针对算法的透明度问题作出内部调整的回应。即使是在缺少规制对象具体信息的前提下,利用算法拥有者信息优势,激励算法拥有者主动进行算法公开,以实现监督的模式,也是一种妥当的选择。[75]算法的开发——特别是应用于公权力行使的算法的开发——与药品一样具有类似的公共利益。管制性排他权保护的目的与增加算法透明度的社会要求相契合。在智慧司法、智慧城市、天网计划等算法权力应用场合,监管的目的是为了保护社会公众利益。提高算法透明度的目的是为了监督算法的开发,评估其是否有危及社会公共安全之虞。主管机关对算法的市场准入实施管制,就可以要求算法开发者对算法的编写提供说明并提供源代码,进而达到监督、规制算法权力的目的。与此同时,赋予算法开发者一定期限的市场排他权,可以保证其获得足够的经济回报,实现激励算法创新的目标。因为算法在绝大多数情形下难以获得专利保护,且算法的商业秘密保护将会产生过度保护的后果,达不到增加透明度实现社会监督的目的。如果将算法完全公开,则意味着算法的商业秘密客体属性丧失,根本得不到相应的保护。


算法公开事关个人利益与公众利益的冲突能否被协调处理。如同药品数据获得管制性排他权的保护,需要披露的也只是证明药品安全的基础数据,[76]算法排他权的主体应该披露事关公共利益的相关数据,但不能披露涉及他人隐私权或个人信息权的数据,这些信息公开与否只取决于权利个体的意志。我国《民法总则》第111条规定,自然人的个人信息受法律保护。区别于隐私的权利客体,个人信息的合法取得者都有防止信息泄露的义务。[77]因此,作为市场准入排他权的对价,算法主体披露的信息当然也不包括自然人的个人信息和隐私信息。


在涉及公权力行使的算法应用场景中,算法排他权制度将在法律架构中引入一个权威机构,负责审查算法是否带有某种歧视。


首先,为了实现对算法的监督,采取市场准入排他性的权利类型构造符合节约社会成本的要求。社会公众不愿意成为“算法难民”。以商业秘密保护算法为例,就制度成本而言,社会负担的成本似乎更经济,然而,该制度无法对算法开发进行中立性的监督,不能保证算法的透明度。算法的广泛应用会影响社会的健康发展,但如果某项权利制度不能保证算法黑箱被揭露,而是相反,甚至是鼓励黑箱的存在,那么,社会所支付的监管成本比设置机构的成本要高昂得多。这类似于药品上市监督所产生的社会成本,与由患者、医生负责审查药品的安全性、有效性相比,它更加保障了公众的用药安全,具有重要的社会效益。


其次,即使算法受其他知识产权法律制度的保护,对适用于公权力场合的算法设置排他权保护,也必将提升算法的透明度。在该种模式下,需要向主管机关进行申报并保存源代码,如果未申报则不允许上市。算法权力的行使需要市场准入,这是因为虽然算法对社会发展有促进作用,但算法不透明带来的危险严重影响公民合法享有的各项权利。如前所述,单纯依靠技术破解算法黑箱问题、实现算法的可解释性变得日益虚幻。受困于技术、资金的问题,民众成为监督主体并不妥当。因此,由国家设置机构扮演行使监督算法权力的角色,是符合增加算法透明度的要求的。


最后,现有算法规制的法律框架中已经存在相应的监管机构,如依欧盟《通用数据保护条例》第51 条而应当设立的监管机构即欧盟数据保护委员会(Data Protection Commission) 已经建立。在我国,虽然存在多头管理的情况,但国家网信部门已经成为事实上的算法规制主管部门,我国《网络安全法》第8 条规定其“负责统筹协调网络安全工作和相关监督管理工作”。在此背景下,由负责算法规制的行政部门来主管算法排他权制度的运行,并不会产生过度增加行政成本的后果。这非常类似于由主管上市审批的药品监管部门来负责药品数据保护制度的实施。药品监管部门肩负维护安全用药的职责,所有药品上市均须获得批文并受其监管。在我国,现阶段,仅国家基本药物目录(2018 年版)就纳入了685 种药品,涉及剂型1110 余个、规格1810 余个,[78]全国7000 多家药企共生产166138 种药。[79]药品数据保护制度建立在药品开发者提供测试数据的基础上,所产生的额外审查工作较少,本质上并未给药监部门带来额外的行政成本。类似地,基于公共利益而建立的算法规制之行政主管部门负责算法排他权制度,特别是,如果规制对象仅限于公权力应用场景的算法,其经济性将不言而喻。


五、算法排他权的具体建构


通过设置竞争者的市场进入障碍来保护产品创新的做法始于美国国会1980 年通过的《联邦杀虫剂、杀菌剂、灭鼠剂法令》,其创设的“成本分担模式”成效明显。故美国国会相继通过1983 年《罕见病药品法》和1984 年《药品价格竞争与专利保护期回溯法》,有意利用市场进入障碍来保护品牌药商免于竞争的威胁。此后,管制性排他权逐渐扩展,形成了包括创新药、新型生物制剂、改良型新药、罕见病药、儿童用药在内的庞大体系。在此背景下,再将类似的保护制度延伸至对算法权力规制的场合,并没有实质性的理论障碍。因此,算法排他权制度的具体构建也可做类似处理,它应该包括如下主要内容。


第一,算法排他权独立于其他知识产权受法律保护。类似于管制性排他权保护,算法排他权的保护并不影响算法得到其他知识产权的保护。如前所述,算法本身很可能因为属于智力活动的规则而不能得到专利保护。然而,“由计算机实施的算法”有可能产生技术效果,满足新颖性、创造性要求而获得专利保护。同样,它作为计算机程序也可以得到版权法律制度保护与商业秘密法律保护保护。


第二,算法排他权的主要内容是不为竞争者所利用。如前所述,在现有的民事法律体系中,并没有一种民事权利制度可以合目的性地保护应该被保护的算法。[80]同样,类似于数据保护,算法排他权的重点是应用于公权力场景的算法开发者向行政主管机关申报并保存源代码,即产生行政主管机关不得允许与该算法相同或者构成竞争关系的算法进入相同应用市场的法律效果。因为实施市场准入的算法应属于影响社会公共利益之场合,所以其使用者往往也是公共权力的承担者,如智慧司法项目中的法院。质言之,算法排他权针对的不是市场竞争者,而是运用算法的相应行政机关。类似于管制性排他权保护,受到排他权保护的算法,即使是其他市场主体直接使用,权利人也不得对其他市场主体提起民事诉讼,不能要求其承担停止侵害、赔偿损失等民事责任。算法排他权的核心是行政主管机关必须在一定期限内禁止具有竞争关系的算法开发者进入市场。算法排他权通过禁止行政主管机关受理或者允许竞争算法进入市场而实现垄断算法应用的权利,可以激励算法开发者进行算法创新,保证权利人投资的经济目的得以实现。


第三,算法排他权的限制事由是公共利益与合理措施。TIPs协议第39条第3款规定,如“属为保护公众所必需,或采取措施以保证该数据不被用在不正当的商业使用中”,则主管部门可披露相关药品数据。其中,一般认为,与药品安全性有关的数据可予以公开,因为它涉及药品使用安全的公众利益。《<中华人民共和国药品管理法>实施条例》(2016年修订)第34条也有类似规定。为规制算法权力,算法排他权所涉及的数据公开也可做同样限制,换言之,算法商业秘密的保护不是绝对的,其在具体制度的建构中需要受到公共利益的限制,否则,就会出现算法保护的悖论:立法的最终目的是为了实现公共利益,而达到目的之手段却是在牺牲公共利益。与此同时,如果采取合理的措施保障算法开发者的利益,则算法的相关信息予以公开也是允许的。在药品数据保护上,一定期限的市场准入排他权被认为是为数据公开所采取的合理措施。因此,如果法律规定的算法排他权具有禁止竞争者进入市场的效果,则它也属于采取了合理措施的范围,可以公开。当然,具体的限制情形则需要结合算法的特点做出审慎的考虑。


第四,算法排他权的期限应为五年。算法排他权如同所有知识产权一样应有期限,因为“科技成果类知识产权如果受到长期的保护,则会造成技术的长期垄断,妨碍技术的进步与传播”。[81]将算法排他权的法定期限确定为五年,理由主要有以下几点。首先,算法排他权的保护期限需要远远短于专利权保护期限。因为大多数算法的编写达不到专利保护的新颖性、创造性要求,如果算法排他权的保护期限长于专利保护期,就意味着一个不能获得专利保护的“发明”所享有的实际权利更加具有竞争优势。并且,由于独立保护的原则,对算法排他权的保护并不妨碍具有新颖性、创造性的“由计算机实施的算法”获得专利保护。其次,具体保护期限(五年)的确定是平衡权利人与社会利益的政策选择的产物。因为算法的发展远没有达到足以支持强人工智能运行的程度,所以需要一定排他期限来保障开发者获取足够的经济回报以促进创新。与此同时,算法的迭代演化迅速,过长的保护期限不利于优化算法的竞争和持续创新。


第五,明确算法排他权的基本程序。类似于药品数据保护,建立算法排他权的目的是为了增加算法的透明度。为此,应用于公权力场景的算法开发者在获得排他权保护之前,需要向行政主管机关进行申报并保存源代码,只有在申报批准之后,算法才可以投入市场运行。其具体程序是,算法所有人在算法开发完成后,如果拟用于涉及公共利益的应用场景,须向行政主管机关进行申报,并披露算法的编写思路与源代码,以及对算法的无歧视性进行相应的说明;行政主管机关经过审查,认定申请运行的算法确无歧视性,即允许算法上市,并禁止其他的市场竞争者使用该算法。


六、结论


算法不透明加剧了社会公平、个人权利保护的危机。算法规制将成为数字时代的重要内容。在技术层面增加透明度的美好愿景,或许在加密技术日益发达、算法编写愈发复杂的发展趋势下变得愈加缥缈。在制度层面设立算法开发者主动解析算法透明度的制度是目前最为妥当的方法,但它又严重影响算法开发者的核心竞争力,侵害了开发者的商业秘密保护利益,故需要构建保障其利益的新型法律制度。应当将药品数据保护的排他权制度移植至对算法发展的规制,即通过国家行政主管机关审查算法有无偏见,以决定是否赋予算法排他权,从而保障社会公共利益。在权利保护层面,通过赋予权利人五年的市场排他权,以激励算法创新。与此同时,对应用于公权力的算法,其权利人须向主管机关详尽披露算法的编写细节并保存源代码,以实现准确评估、监管算法权力的目标。因此,将管制性排他权移植至对算法的权利保护,既可以满足开发者权利保护的要求,实现激励创新的目的,也可以满足社会提高算法透明度的需要,进而有效平衡个人权利与公共利益的不同需求。从理论上看,算法排他权将破除算法黑箱的困扰,对算法这一工具在社会生活中的广泛应用发挥更为积极的作用。


注释:

作者简介:梁志文,南京师范大学法学院教授、博士研究生导师,广东外语外贸大学华南国际知识产权研究院教授。

*本文系国家社科基金“创新驱动发展战略下知识产权公共领域问题研究”(项目编号:17ZDA139)研究成果。南京师范大学法学院硕士研究生李坪根据笔者提出的论点、详细论证框架和主要参考文献撰写了除第一部分之外的本文初稿,在此特致感谢。

[1]参见[美]ThomasH.Cormen等;《算法导论(原书第3版)》,殷建平等译,机械工业出版社2013年版,第3页。

[2]See Naomi Cahn et.al,.“Discrimination by Design?”51 Arizona State Law Journal 1,4 ( 2019) .

[3]参见刘友华:《算法偏见及其规制路径研究》,载《法学杂志》2019年第6期。

[4]仇筠茜、陈昌凤:《基于人工智能与算法新闻透明度的“黑箱”打开方式选择》,载《郑州大学学报(哲学社会科学版)》2018年第5期。

[5]See Sonia K. Katyal, “Private Accountability in the Age of Artificial Intelligence”, 66 UCLA Law Review 54, 67- 68 (2019).

[6]See Sonia K. Katyal, “Private Accountability in the Age of Artificial Intelligence”, 66 UCLA Law Review 54, 67- 68 (2019).

[7]See Jane Bambauer & Tal Zarsky,“The Algorithm Game”, 94 Notre Dame L. Rev. 1, 2- 3 (2018).

[8]参见汝绪华:《算法政治:风险、发生逻辑与治理》,载《厦门大学学报(哲学社会科学版)》2018年第6期。

[9]参见程莹:《元规制模式下的数据保护与算法规制》,载《法律科学》2019年第4期。

[10]See Sonia K. Katyal, “Private Accountability in the Age of Artificial Intelligence”, 66 UCLA Law Review 54, 109 (2019).

[11]See Deirdre K. Mulligan & Kenneth A. Bamberger,“Saving Governance- By- Design”, 106 Calif. L. Rev. 697, 699 (2018).

[12]See Jane Bambauer & Tal Zarsky,“The Algorithm Game”, 94 Notre Dame L. Rev. 1 (2018).

[13] See Sonia K. Katyal, “Private Accountability in the Age of Artificial Intelligence”, 66 UCLA Law Review 54, 109 (2019).

[14]See Cary Coglianese & David Lehr,“Transparency & Algorithmic Governance”, 71 Administrative Law Review 1, 1 (2019).

[15]See Andrew D. Selbst & Solon Barocas,“The Intuitive Appeal of Explainable Machines”, 87 Fordham Law Review 1085,1092 (2018).

[16]参见张凌寒:《算法规制的迭代与革新》,载《法学论坛》2019年第2期。

[17]数学杀伤性武器是对有害算法模型的总的描述。参见[美]凯西·奥尼尔:《算法霸权》,马青玲译,中信出版社2018年版,第一章。

[18]参见张凌寒:《<电子商务法>中的算法责任及其完善》,载《北京航空航天大学学报(社会科学版)》2018年第6期。

[19]参见姜野、李拥军:《破解算法黑箱:算法解释权的功能证成与适用路径》,载《福建师范大学学报(哲学社会科学版)》2019年第4期。

[20]参见胡凌:《商业自动化决策的算法解释权研究》,载《法律科学》2018年第3期。

[21]参见郑戈:《算法的法律与法律的算法》,载《中国法律评论》2018年第2期。

[22]参见徐子珊编:《从算法到程序》,清华大学出版社2015年版,第1页。

[23]参见蔡自兴、徐光佑:《人工智能及其应用》,清华大学出版社1996年版,第9页。

[24]参见阎平凡、张长水:《人工神经网络与模拟进化计算》,清华大学出版社2000年版,第6页。

[25]贾开:《人工智能与算法治理研究》,载《中国行政管理》2019年第1期。

[26]参见何华灿:《重新找回人工智能的可解释性》,载《智能系统学报》2019年第3期。

[27]参见李德毅、杜鹢:《不确定性人工智能》,国防工业出版社2014年版,第23页。

[28]See N.Diakopoulos,“Algorithmic Accountability: Journalistic Investigation of Computational Power Structures”, 3(3 )Digital Journalism 398- 415 (2015).

[29]参见[韩]李承远:《逆向工程核心原理》,武传海译,人民邮电出版社2014年版,第5-6页。

[30]参见[美]罗杰·S·普莱斯曼、布鲁斯·R·马克西姆:《软件工程——实践者的研究方法》,郑人杰、马素霞译,机械工业出版社2016年版,第532页。

[31]反向工程学的应用与美国《数字千禧年版权法》保护系统免受规避技术相冲突。参见方兴东:《黑客微百科:洞察网络时代的未来》,东方出版社2015年版,第48页。

[32]参见前注[3],刘友华文。

[33]参见姚秋英:《人格权研究》,中国政法大学出版社2012年版,第136页。

[34]参见张新宝:《隐私权的法律保护》,群众出版社2004年版,第99页。

[35]参见翁国民、汪成红:《论隐私权与知情权的冲突》,载《浙江大学学报(人文社会科学版)》2002年第2期。

[36]参见前注[18],张凌寒文。

[37]参见《今日头条杨震原:算法与技术是互联网公司的核心竞争力》,http://news.ifeng.com/a/20150121/42977116_0.shtml,2019 年9 月18日访问。

[38]参见倪浩、王会聪:《从屠杀直播看“社交媒体之罪”》,载《华声》2019年第4期。

[39]参见张小艳、李占利:《数据结构与算法设计》,西安电子科技大学出版社2015年版,第9-16页。

[40][美]罗杰·谢科特、约翰逊·托马斯:《专利法原理》,余仲儒等译,知识产权出版社2016年版,第38页。

[41]同上注,罗杰·谢科特、约翰逊·托马斯书,第41页。

[42]参见李明德:《欧盟知识产权法》,法律出版社2010年版,第328页。

[43]参见[德]鲁道夫·克拉瑟:《专利法:德国专利和实用新型法、欧洲和国际专利法》,单晓光、张韬略、于馨淼译,知识产权出版社2016年版,第173页。

[44]参见前注[42],李明德书,第328页。

[45]参见[美]莱姆利:《软件与互联网法》(上),商务印书馆2014年版,第258页。

[46]参见魏家明:《代码结构》,电子工业出版社2016年版,第35页。伪代码是一种类似于程序设计语言的严格的外部语法结构,用if-then-else表示分支机构,用while-do或for-do表示循环结构,且有着内部宽松的数学语言表述方式的代码表示方法。参见前注[22],徐子珊编书,第2页。

[47]参见[美]斯坦纳:《算法帝国》,李筱莹译,人民邮电出版社2014年版,第99页。

[48]参见梁志文:《论专利制度的基本功能》,载《吉首大学学报(社会科学版)》2012年第3期。

[49]Jeanne C. Fromer,“Patent Disclosure”, 94 IOWA L. REV. 539, 551 (2009).

[50]W. Nicholson Price II,“Expired Patents, Trade Secrets, and Stymied Competition”, 92 Notre Dame L. Rev 1611, 1612 (2017).

[51]在国际法层面,TRIPS协定第10条规定了计算机程序是《伯尔尼公约》所称的作品,可以获得版权保护。

[52]参见前注[22],徐子珊编书,第2页。

[53]See John V. Swinson, “Software Patents in the United States”, 4 J.L. & Inf. Sci. 116, 119 (1993).

[54]参见张吉豫:《计算机软件著作权保护对象范围研究》,载《法律科学》2013年第5期。

[55]参见王运嘉:《计算机软件整体保护模式之探讨》,中国政法大学博士论文,2014年,第4-5页。

[56]See Sonia K. Katyal, “The Paradox of Source Code Secrecy”, 104 Cornell Law Review1183, 1209(2019).

[57]See Sonia K. Katyal, “The Paradox of Source Code Secrecy”, 104 Cornell Law Review1183, 1208(2019).

[58]See Sonia K. Katyal, “The Paradox of Source Code Secrecy”, 104 Cornell Law Review1183, 1207(2019).

[59]Lara Grow & Nathaniel Grow,“Protecting Big Data in the Big Leagues:Trade Secrets in Professional Sports”, 74 Wash. & Lee L. Rev.1567, 1622 (2017).

[60]See Sonia K. Katyal,“The Paradox of Source Code Secrecy”, 104 Cornell Law Review1183, 1246(2019).

[61]See Jeanne C. Fromer,“Machines as the New Oompa- Loompas:Trade Secrecy, the Cloud, Machine Learning, and Automation”, 94 N.Y.U.Law Review 713, 714 (2019 ).

[62]See Sonia K. Katyal,“The Paradox of Source Code Secrecy”, 104 Cornell Law Review 1183, 1251(2019).

[63]参见前注[16],张凌寒文。

[64]参见[英]约瑟夫·拉兹:《自由的道德》,孙晓春、曹海军译,吉林人民出版社2011年版,第157-159页。

[65][美]罗纳德·H·科斯:《财产权利与制度变迁——产权学派与新制度学派译文集》,刘守英等译,格致出版社、上海三联书店、上海人民出版社2014年版,第73页。

[66]参见[美]斯蒂芬·芒泽:《财产理论》,彭诚信译,北京大学出版社2006年版,第70-77页。

[67]Mark A. Lemley,“IP in a World Without Scarcity”, 90 N.Y. U. L. Rev. 460, 506 (2015).Lemley 教授在近期发表的多篇论文中强调知识产权的管制属性,See Mark A. Lemley,“The Regulatory Turn in IP”, 36 HARV. J. L. & PUB. POL’Y 109 (2013); Mark A. Lemley,“Taking the Regulatory Nature of IP Seriously”, 92 TEX. L. REV. 68, 68 (2014).

[68]See Anna B. Laakmann,“A Property Theory of Medical Innovation”, 56 Jurimetrics 117, 119 (2016).

[69]Anna B. Laakmann,“A Property Theory of Medical Innovation”, 56 Jurimetrics 117, 119 (2016).

[70]梁志文:《管制性排他权:超越专利法的新发展》,载《法商研究》2016年第2期。

[71]See Robin Feldman,“Regulatory property:The new IP”, 40 Colum . L.J. & Arts 53, 100 (2016).

[72]See Arjun Jayadev & Joseph Stiglitz, Two Ideas to Increase Innovation and Reduce Pharmaceutical Costs and Prices, 28 (1) Health Affairs, W165- 168, (2009).

[73]参见梁志文:《药品数据的公开与专有权保护》,载《法学》2013年第9期。

[74]参见前注[70],梁志文文。

[75]参见[英]科林·斯科特:《规制、治理与法律:前沿问题研究》,安永康译,清华大学出版社2018年版,第13页。

[76]美国FDA 提供认证功能,以增强有关产品的信息性声明的可信度,同时保留基础数据的实质保密性。See Rebecca S. Eisenberg, “The Role of the FDA in Innovation Policy”, 13 Mich. Telecomm. & Tech. L. Rev. 345, 382 (2007).

[77]参见杨立新:《民法总则》,法律出版社2017年版,第281页。

[78]参见《国家基本药物目录( 2018 年版) 解读》,http://www.satcm.gov.cn/hudongjiaoliu/guanfangweixin/2018 - 10 - 31/8235.html,2019 年9

18 日访问。

[79]参见《中国坐拥7000 多家药企 为什么还缺创新药?》,https://news.sina.com.cn/c/2018 - 09 - 29/doc - ihkmwytp8801108.shtml,2019 年9月18 日访问。

[80]所谓“应该被保护的算法”是指某些算法虽然不具有新颖性、显著性,但是开发者为了算法编写付出了较大的成本,且该算法具有较大的商业价值。如果没有合适的权利类型可以保护该算法,则意味着市场竞争主体将会无成本地进入市场,损害算法开发者的利益,最终将会损害社会利益。称之为“应该被保护的算法”,意味着在确定特定权利保护类型进行保护之前,已进行价值判断。

[81]孔祥俊:《知识产权法律适用的基本问题——司法哲学、司法政策与裁判方法》,中国法制出版社2013年版,第41页。


本站系非营利性学术网站,所有文章均为学术研究用途,如有任何权利问题,请直接与我们联系。


(编辑:何芳琴)


Copyright© 2014 南京理工大学 版权所有  苏ICP备09095224号