引子:
算法自动化决策是指算法对输入的数据进行分析处理,通过既定的程序自动化输出结果的过程。近年来,随着人工智能技术的不断进步以及机器学习理论的不断深入,算法自动化决策被普遍运用于各领域。然而,算法自动化决策在节约时间和提升工作效率的同时,也引发了诸多问题,如何保证算法自动化决策的合理性、正当性和公平性,减少自动化算法在各领域决策中触发的各类风险,是学界关注的焦点。学者们从不同角度对算法自动化决策进行了有益探索,本期文汇予以汇编。
不能任由程式化的算法进行自动化决策而不施以任何干预
孙建丽在《法治研究》2019年第4期《算法自动化决策风险的法律规制研究》一文中认为,在对算法自动化决策技术加紧研发、利用的同时,人们普遍忽略了算法自动化决策所带来的负面影响,以致在“技术中立”思潮的遮蔽下,对算法自动化决策造成的现实危害关注力度不足。近来随着算法自动化决策在各领域的广泛应用,由算法自动化决策引发的弊端不断凸显。一是算法自动化决策导致“信息茧房”风险。自动化决策算法对定制化信息的不断精准推送看似满足了用户的主观需求,但实则将用户引入了“井蛙”困境。因为短时间内在注意力有限的情况下,用户仅能被锁定在由自动化算法推送的某类固定信息中。二是算法自动化决策引发隐私泄露风险。实践中,抓取用户数据后启用自动化算法对未来趋势进行预测已不罕见,通过自动化算法深度挖掘并披露用户潜在隐私信息已是不争的事实。
保证自动化决策的透明度和结果公平公正
刘浩锴在《新余学院学报》2022年第3期《算法自动化决策的问题检视与制度形塑》一文中指出,《个人信息保护法》第二十四条规定“应当保证决策的透明度和结果公平、公正”,所指向的是对自动化决策规制的内容,即决策的透明度和处理结果的公平公正。决策的透明度是指自动化决策机制的公开透明,使用户知晓该平台自动化决策的流程或走向。处理结果的公平公正则是指自动化决策不存在歧视,应当公平公正地对待用户,实现这一内容的关键在于尽可能消除自动化决策算法歧视,使自动化决策的结果尽可能公平且符合公众认知。处理结果的公平公正则在于使自动化决策的算法不歧视,公平地收集和分析数据,且符合公众的一般认知。一方面可以适当调整算法开发者的性别、种族、宗教等,使之兼顾更多的价值观;另一方面可以设置一定的机构对算法进行外部的监督。
对于算法自动化决策,以信任原则重构算法解释权
丁晓东在《中国法学》2022年第1期《基于信任的自动化决策:算法解释权的原理反思与制度重构》一文中认为,在算法自动化决策中,个人所面临专业化壁垒更高、信息更不对称、不确定性更高。对于这种关系,法律更难通过告知同意的方式进行规制。如果说个人信息保护中有的议题更类似于消费者的保护,存在一定的能力与信息不对称;那么算法自动化决策则类似于医患关系,双方的能力与信息不对称程度更高。在这样一种关系中,法律经常要求医生对病患承担信义义务,建构一种基于信任而非简单同意机制的医患关系。对于算法自动化决策,也应当更多以信任原则和信义法的框架重构算法解释权。
技术膨胀出的权力越是绝对,人类的尊严就越受到威胁
唐林垚在《东方法学》2020年第6期《“脱离算法自动化决策权”的虚幻承诺》一文中认为,针对自动化决策的法律应对重点在于,警惕打着促进自由幌子的技术工具,被用来生成更多难以挣脱的枷锁。欧盟立法的经验和教训表明,多权并立的联动体系不一定能够确保个人意志可以独立、自主地依据普遍承认的法则和习惯同他人的意志相协调,反而可能会因为部分不那么重要的权利对另一些真正重要的权利的遮蔽和掣肘,阻碍实质公正与有效救济的兑现。在人工智能领域,各国立法者创造出了过多的于事无补的范式,来与广为人知的毫无意义的知情同意这一比喻相配。技术膨胀出的权力越是绝对,人类的尊严就越受到威胁。“获解释权”和“被遗忘权”至多只能争取到局促的看似自主和有限自由,而只有在决定自身利益的关键事务上享有积极参与的权利,人类才有可能维持和延续在知识、经验和道德上的卓越。在这个意义上,“脱离自动化决策权”实乃关系人类共同命运的最后一道屏障。在自动化决策逐步成为国家治理体系和治理能力现代化重要组成部分的必然趋势下,下一步工作是透过解释或针对典型性事件的具体化,将既存规则和立法顾虑之间的可能冲突加以澄清,发展出切实可行同时又具备弹性的行权路径,让“脱离自动化决策权”成为我国人工智能领域良法推进善治、将制度优势转化为国家治理效能的人权保障。
(原标题《算法自动化决策探析》)
见习编辑 吴剑雯 审读 吴剑林 审核 高原 桂桐