文萃|算法解释权探析
赵鑫
2022-03-15 09:29

编者按:

大数据时代,算法自动化决策在广泛运用于私人生活与公共治理领域的同时,也导致了隐私和歧视风险。究其原因,在于算法透明性缺乏导致算法决策的黑箱效应,并最终危及算法决策可责性。算法解释权旨在通过赋予数据主体获得算法自动决策的解释权利,明确数据控制者的解释义务,通过提高算法透明性,重塑算法决策可责性,进而缓和算法决策隐私和歧视风险的目的,具有现实的正当性基础。学者们从不同角度对算法解释权的相关问题进行了有益探索,本期文萃予以汇编。

算法解释权用以规制算法权力

张恩典在《法学论坛》2019年第4期《大数据时代的算法解释权:背景、逻辑与构造》一文中认为,算法自动决策所引发的隐私与歧视风险,在不同程度上都指向大数据算法决策的“黑箱效应”。所谓算法决策的“黑箱效应”,是指那些对人们生活产生重大影响的决策,是由大数据算法在人们无法察觉和认知的隐秘状态下自动作出的,具有高度的模糊性。究其原因,算法决策黑箱效应缘于算法决策具有高度的技术性和隐蔽性。正因如此,大数据算法成为公共和私人机构推诿责任的工具和屏障,当决策失误时,他们便可以决策是由技术中立的算法模型作出的为理由而拒绝承担责任。在大数据时代背景之下,作为一种新兴权利形态,算法解释权兴起所展现的,实则是试图通过强化对算法自动化决策的解释,进而提高算法透明性,并最终克服算法模糊性和技术性特征所引发的隐私和歧视风险的制度性努力,亦即旨在通过赋予数据主体有权获得算法自动决策的解释权利,来达到规制算法权力,进而缓和乃至消除算法决策隐私和歧视风险的目的。

算法解释权面临挑战,但仍是质疑算法决策的重要法律工具

解正山在《现代法学》2020年第1期《算法决策规制——以算法“解释权”为中心》一文中认为,行使算法解释权面临一定挑战:一是以人类可理解的形式表达机器逻辑仍存在一定困难;二是算法控制者还有强烈动机拒绝披露更多的算法信息,以保障自身商业秘密或避免损害其他当事人的隐私等权利与自由。此外,若无外部法律或专业援助,那么仅靠算法“解释权”来保护数据主体权利意味着他们在质疑算法决策时要承担首要且繁重的义务。然而,这些挑战并非不可克服,更不能因此而放弃或拒绝赋予个人要求算法控制者提供算法解释的请求权。整体上看,算法解释权仍是一种用于质疑算法决策的重要法律工具,既能为相对人反驳于己不利的算法决策提供法律支撑,而且还将增进他们乃至整个社会对算法技术与算法决策的信任。总之,算法解释权虽存在上述挑战,但赋予相对人这一权利的社会及伦理价值并未受到影响,它不仅“符合公平正义的价值取向,也符合人工智能时代的需求和特征”,更是实现算法正义的重要路径。

人工解释应成为兜底性要求

丁晓东在《中国法学》2022年第1期《基于信任的自动化决策:算法解释权的原理反思与制度重构》一文中认为,就解释方式而言,自动化决策者可以根据自身能力、行业特征、用户数量与算法影响程度而选择人工解释或机器解释。在理念层面,人工解释具有一定的优先性,专业高效的人工解释更有利于信任的建立。同时,对于一些对个人或社会造成重大影响的算法,人工解释应成为兜底性要求,以便消费者或监管机构对企业或算法运用的主体进行算法监督。但对于其他并未产生重大影响、用户数量庞大的算法,要求企业或算法主体对所有个体都采取人工解释,并不现实。如果强行施加此类要求,其结果可能反而是企业关闭所有的解释与沟通渠道。因此,应当允许企业在一般情况下运用机器解释或自动化客服。机器解释如果运用得当,例如在事先充分设想场景,为用户提供各类“反事实解释”或针对性解释,则机器解释也能有效起到提供“有效性信息”、沟通解惑的功能。此外,还可以鼓励企业或算法主体建立机器与人工的混合解释机制。机器解释与人工解释的混合使用,将有助于减小自动化决策者的现实压力,更有效推动算法解释权的落地。(栏目主持:赵鑫)

(原标题《文萃|算法解释权探析》)

编辑 编辑-高原(客户端)审读 韩绍俊审核 编辑-郑蔚珩(客户端),特区报-张雪松
(作者:赵鑫)
免责声明
未经许可或明确书面授权,任何人不得复制、转载、摘编、修改、链接读特客户端内容
推荐阅读
读特热榜
IN视频
鹏友圈

首页