算法归责:人工智能领域法律规制之路
今年4月10日,美国参议院三位民主党议员提出一项《算法责任法案》(Algorithmic Accountability Act of 2019),该法案将授权联邦贸易委员会(FTC)审查面向消费者的自动决策系统的使用,以识别偏见、隐私和安全风险。
无独有偶,我在参加大湾区智能法治创新论坛提交的论文《人工智能算法的伦理诉求和法律规制——以算法归责为视角》中,也提出通过算法解释,进而对算法归责,从而实现对人工智能算法进行法律规制的路径。以下摘自是拙文的其中一节。
论算法解释法律构建的若干要素
通过算法解释进行算法归责,最终要落地为算法解释的法律构建。对此,笔者仅的法律问题提出若干思考。
1、算法解释的权利内涵
当我们倡导算法解释时,不得不面临的一个问题是:算法解释从法律角度看是一个什么机制?它是一个权利结构吗?或者可以更直接地问:算法解释权利是否存在?笔者的回答是:既存在又不存在。
算法解释目的在于算法归责,算法归责可以回应算法的伦理诉求。所以探究算法解释的性质需回顾算法的伦理诉求:安全保障、机会平等(反歧视)和隐私保护。上述伦理诉求置于法律保护之下,权利即便生成。
具体而言,如:安全保障诉求可生成生命权、身体权和健康权等民事权利;机会平等诉求可生成平等权、受教育权、免受性别歧视权等公民基本权利以及消费者权益保护方面的诸如知情权等;隐私保护诉求可生成名誉权、荣誉权、隐私权等民事权利,还包括人格尊严不受侵犯等公民基本权利。
上述权利与算法解释的关系是什么呢?事实上是在人工智能算法发生作用的具体场景,通过明确产品或服务提供方、算法开发方解释义务的方式把上述权利激活。可见,算法归责指向的权利从公民基本权利、民事基本权利到特别主体的民事权利,公法、私法和社会法领域全覆盖,其跨度和纵深决定了不可能创设一项名为算法解释权的具体权利。所以说算法解释权不存在,但这并不意味着摒弃算法解释的归责和权利保护路径。
如前所言,算法解释是连接算法责任和具体权利的关键一环,只要立法在相关具体权利中增加在人工智能算法应用场景算法控制方或开发方的算法解释义务,即可实现通过算法解释进行归责进而保护算法应用使用者或相对方权益的目的。在这个意义上说,算法解释权是存在的且不可缺的。
因此,所谓算法解释权并不是一项具体的权利而是学理上的概念,但它不会也不应止步于学术研讨中,因为算法解释有明确责任、回应伦理诉求的实践意义。兴许由权利人中心转换为责任人中心角度观之,以算法解释义务来替代算法解释权利表述似乎更为准确。鉴于既有权利已基本涵盖算法伦理诉求,因此在算法解释的法律构建过程中,重点不在赋权而是归责,即在相关立法中增加、明确人工智能算法控制方(包括产品或服务提供方和算法开发方)的解释义务。
2、算法解释的实体构成
如前所述,算法解释的法律构建主要通过附加算法解释义务的方式完成。笔者认为,算法解释义务至少应包括两方面内容:
其一,是一般解释义务。它主要指算法决策作出前对算法产品/服务提供方或算法技术开发方的前置规制。具体而言是要求在算法产品研发、算法设计阶段即需逐一回应算法可能面临的伦理诉求,即所谓Privacy by Design、Fairness by design、Safety by design等等的要求。
例如在自动驾驶汽车应用场景,自动驾驶算法是否应该依据人的驾驶习惯区分出积极果断型或谨慎稳健型等不同风格的产品?一般常识认为积极果断型更趋向安全,但在车流密集的道路上,保守风格的自动驾驶汽车是否会影响道路的整体通行效率?另外,对于安全的伦理诉求,自动驾驶算法还要面对‘谁之安全’这一重大价值问题,如果碰撞无法避免时,此安全究竟首先是本车的,还是相关可能碰撞对象的?相关算法法则究竟是以本车‘自我’‘自保’为中心,还是以他方、保护他者为中心?[1]
如此电车难题般的伦理冲突问题,也许会一直在学界争论不休,但它不会影响自动驾驶等相关依赖算法决策的人工智能产品的研发和商业投放进度。相反,伦理和价值问题的讨论,会促使研发人员在产品蓝图设计阶段更多地考虑这些问题。更重要的是,每一款产品的伦理和价值嵌入,需要立法明确其必须在产品说明书中进行披露,从而让消费者、用户和算法相对方知悉不同厂家的产品所蕴含的不同性格和价值取向。
其二, 算解释义务还包括具体解释义务。它主要是指在算法决策完成后,产品/服务提供方或算法技术开发方应具体的使用者或相对方的要求对算法或算法的输出结果有关的因素进行披露的义务。
具体解释义务除了披露算法相关因素的主义务外还应该包括为了救济算法使用者或相对人因算法不当决策而遭受损害而附随履行的义务,否则单纯披露算法将失去意义。具体解释的附随义务应该包括:1)纠正义务,即在算法决策被有关权力机构认定造成损害后,算法应用服务商或算法技术开发方应纠正、调整算法中的相关因素;2)重新决策义务,即算法应用服务商或算法技术开发方对错误、不当算法决策受影响的相对人,重新依据调整、纠正后的算法进行决策;3)停止侵害和赔偿义务,即若纠正算法或重新决策已经不必要或不可能,则算法应用服务商或算法技术开发方应对受影响的算法决策相对人承担停止侵害并赔偿损失的义务。上述各附随义务根据具体不同情况而适用,且算法产品/服务提供方和算法技术开发方的责任是连带责任、分别责任还是补充责任,需要立法根据具体权利行使的场景以及有利于救济的原则进行界定。
3、算法解释的程序构成
算法解释的程序构成,笔者认为至少有三个要点需要考量。
第一,算法解释的可执行性或可诉性。算法解释通过附加算法解释义务实施,这一算法解释义务需要有公权力介入作为强制保障力量。公权力介入有两种形式:其一是行政保障模式,由统一的行政执法部门负责对人工智能算法问题进行立案、调查,并通过类似听证的形式由算法产品/服务提供方、算法技术开发方和算法应用使用者或相对方就算法解释进行阐述和辩论,在此基础上由行政执法部门认定算法责任并监督算法解释义务的执行;其二是司法保障模式,即由算法应用使用者或相对方就其具体权利受侵害的情况根据具体的请求权基础提起诉讼或仲裁,由司法机关主导算法解释问题争议处理,并依权利人申请强制执行,要求具体算法责任人履行保护相对人的义务。
第二,算法解释的触发条件。前文已经分析,算法解释是必要且可行的,然而我们不能忽视的是算法解释是有成本的,且成本高昂,它不仅耗损技术资源,而且还占用行政和司法资源。因此,为避免权利人滥用算法解释机制,立法应设定算法解释的触发条件,从而保证算法解释的效率。
首先,因为算法解释的目的在于归责、在于救济权利受损方,因此提起算法解释请求的权利人应该是因算法决策而遭受不利影响的一方。仍举贷款审批算法自动化决策的例子,若申请人贷款已获批准,法律不应支持其为了满足好奇心而提起的算法解释请求。
其次,借鉴欧盟GDPR关于自动化决策的规制[2],笔者认为提起算法解释的请求方因算法决策而遭受的不利影响应该是直接的和有法律后果的。具体而言,直接的不利影响排斥目的在于排除不可控的间接损失。如基于自动化决策的贷款申请被拒绝而影响购房,因购房交易无法继续履行而产生的定金、违约金和中介费用等损失可算直接影响的损失,而期间因房价上涨导致的再次购房承担的房屋差价即不属于直接影响;有法律后果的影响具体指受不当自动化决策影响而导致的具体权利被侵犯,如受损的不是具体权利而是非法定利益,譬如基于自动化决策筛选的相亲对象匹配,算法决策相对方对机器匹配对象不满意或机器匹配错误而导致的相亲失败,相对人受损的不是法律保护的具体权利,相对人就此提起算法解释请求不应获得法律支持。
第三,算法解释的证明标准。前文所论证的算法解释可诉性或可执行性,强制力是其保障,强制力发挥作用的前提是执行算法责任的合法性和合理性,而这一合法性和合理性的基础是正当程序(due process[3])。意味着,算法应用使用者或相对方可在正当程序框架内通过询问、质疑算法决策相关因素以抗拒算法决策对其发生的效力,而算法产品/服务提供方或算法技术开发方则可通过解释相关因素去回应诘问,以证明算法决策的有效性。
事实上,在正当程序中,算法产品/服务提供方或算法技术开发方承担更多的证明责任,他们需要证明算法决策符合法律认定的解释标准,否则他们应向算法使用者或相对人提供救济措施。鉴于算法解释不等同于算法透明化或打开算法黑箱,因此要求算法产品/服务提供方或算法技术开发方解释全部输入数据、解释整体算法逻辑、公开源代码等都是不必要的。关于立法应该规定的解释标准,笔者基本赞同以下观点:出于救济的目的,解释的内容应符合两个标准:第一,具有相关性,即必须与相对人所受的具体自动化决策相关;第二,相对人能够理解。最终目的是证实自动化决策可资信赖在此原则上,除了可理解性和相关性,应针对不同的自动化决策内容制定不同的解释标准……[4]
笔者认为,相关性标准体现了局部解释的原则,能确保算法解释的可行性;可理解性标准则体现哲学解释学推崇的非独断的多元性,即算法产品/服务提供方、算法技术开发方、算法应用使用者、算法决策相对方都是解释方,都有权对一项具体的算法决策进行理解,算法解释的理想图景应该是通过对话,使解释各方视域交融、达至意识共识:算法解释能被各方理解和接受,人机信任得以确立。哈贝马斯曾说:交往理性之区别于实践理性,首先是因为它不再被归诸单个主体或国家-社会层次上的宏观主体。相反,使交往理性成为可能的,是把诸多互动连成一体、为生活形式赋予结构的语言媒介。这种合理性是铭刻在达成理解这个语言目的之上的。[5]也许,负解释义务的算法将使人工智能有益、向善、可期。
[1] 参见高兆明、高昊:《信息安全风险防范与算法法则的价值原则——自动驾驶汽车研发的两个实践哲学问题》,载《哲学动态》2017年第9期,第81页。
[2] 欧盟GDPR第22条Automated individual decision-making,including profiling规定,对数据主体产生法律或严重影响(legal effectsor significantly affects),数据主体有权不遵从、不接受。
[3] See,Danielle Keats Citron,Technological DueProcess, 85 Washington University Law Review 1249 (2008), Danielle Keats Citron,Frank Pasquale,The Scored Society: Due Process for Automated Predictions, 89 Washington Law Review 1(2014).
[4] 张凌寒:《商业自动化决策的算法解释权研究》,载《法律科学》(西北政法大学学报)2018年第3期,第72页。
[5] [德]哈贝马斯,童世骏译,《在事实与规范之间:关于法律和民主法治国的商谈理论》,三联书店2003年版,第4页。
上文摘自梁灯律师在大湾区智能法治创新论坛提交的论文《人工智能算法的伦理诉求和法律规制——以算法归责为视角》中的最后一章的其中一节,未经作者授权请勿转载。
相关阅读:
比较法视角下人工智能算法的既有法律规制局限评析