文萃|人工智能与未来法治
王玥
2019-03-28 00:01

 编者按:

随着人工智能技术的飞速发展,司法领域已经开始出现人工智能的身影。在国家人工智能发展战略的号召下,我国司法机关纷纷建立了各自的人工智能办案系统。时至今日,人工智能建设在我国司法中已初具成效,大大提高了办案质量和效率。然而,人工智能在为司法带来便利的同时也带来了新问题。例如,人工智能辅助定位与全面发展如何平衡?如何避免人工智能建设陷入“法定证据制度”误区?如何防范司法数据造假与智能算法的暗箱操作?这些问题都有待解决。本期文萃对不同学者关于“人工智能与法治”的研究进行了汇编,学者们从不同角度对这一主题进行了有益的探索。

■  人工智能失职责任的承担问题直接与司法责任制密切相关,建立和完善司法责任制是司法改革的关键环节

程凡卿在《东方法学》2018年第3期《我国司法人工智能建设的问题与应对》一文中探讨了“人工智能从事司法工作如果产生了错误,责任由谁承担?”这个问题。这是司法机关人工智能建设必然会遇到的一个重要问题。依据各国的实践来看,有些国家和地区对人工智能承担法律责任的问题采取了较为超前的态度。例如,2017年10月沙特阿拉伯授予美国汉森机器人公司生产的机器人索菲亚公民身份。而多数国家采取了保守的做法,没有对人工智能是否可以独立承担法律责任作出明确答复。目前,我国也没有针对人工智能的责任承担问题出台专门的法律或解释。尽管《新一代人工智能发展规划》明确要求:“开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等。”但有关人工智能从事司法工作的失职责任如何承担,理论界与实务界也未形成统一意见。人工智能失职责任的承担问题直接与司法责任制密切相关。建立和完善司法责任制是司法改革的关键环节。党的十八届三中全会决定中指出,要“完善主审法官、合议庭办案责任制,让审理者裁判,由裁判者负责”。党的十八届四中全会决定进一步强调,“完善主审法官、合议庭、主任检察官、主办侦查员办案责任制,落实谁办案谁负责”,“实行办案质量终身负责制和错案责任倒查问责制”构建和完善司法责任制,是司法公正的重要保障,是权责统一原则的必然要求,也是中西方司法文明共同的经验汇集。而人工智能的失误责任承担不明会对司法责任制的贯彻产生一定的困扰。责任主体不明确不但会造成过错无人承担,还可能造成过错主体之间相互推卸责任,不利于维护司法责任制的贯彻与落实。

 虽然人工智能不能代替法官律师,但是依据它自身所拥有的优势可以给法律行业带来更多便利与机遇

肖宬子在《法制与社会》2018年30期《浅谈人工智能对现行法律带来的挑战与机遇》一文中认为,虽然人工智能不能代替法官律师,但是依据它自身所拥有的优势可以给法律行业带来更多便利与机遇。 首先人工智能最突出的优势是效率,由于人工智能可以通过数据网络体系自我学习,而在某种层面上它隶属于计算机的后代,人工智能在记录文案、查阅案例及法律条文方面的优势是不容忽视的。虽然人工智能不能像人类那样灵活处事,但是它的理性与丰富的数据资源有助于相关人士快速查询使用。例如法律咨询,可以由人工智能受理,由人工智能通过提供的数据和资料进行大数据分析,将分析结果告知当事人,以便于相关人员了解司法流程以及胜诉的概率,甚至为发起诉讼的人们节省法律成本。同时,人工智能还可以促进当前所倡导的法治社会建设,让更多其他人士了解法律司法条款,促进普法工作的开展,进而促进整个社会法制进程的高效运行。 其次,由于人工智能拥有通过大数据分析而自学的优势,可以作为司法案件中的保险措施,保证公平公正性;或者是在呈堂时作出案例分析和建议,作为法官审判的参考。当然人工智能在实际案例中也只能作为辅助者,尤其是处于法律盲区或者是法律与人伦相悖的案例中,由于涉及人性道德问题,此时要慎用人工智能,确保审判的公正公平。

怎样制定法律规则既不与法律根本原则相违背又能达到规范机器人行为的目的,是立法者在目前需要解决的问题

黄博、刘丽荣在《法制博览》2018年第11期《人工智能的法律人格》一文中认为,目前,人工智能还处于初步发展阶段,虽然现在其人格问题还没有在法律层面对人类构成太大的威胁,但未雨绸缪,人工智能是未来社会发展的必然结果,“强人工智能”在不久的将来定会走进我们的生活。因此,人工智能是否具有法律人格是我们应该面对的问题,我们应如何控制并合理分配对机器人潜在危险的预防;怎样制定法律规则既不与法律根本原则相违背又能达到规范机器人行为的目的,是立法者在目前需要解决的问题。

笔者认为,要从根本上解决对人工智能法律问责的问题,盲目的赋予其法律主体资格显然局限,我们应从以下三个方面对人工机器人进行法律上的防控:第一,在机器人发生危险时,应明确法律问责的主体,调整人工智能的生产者、销售商以及其拥有者之间责任划分的矛盾。第二,在有关人工智能的法律规则的制定中,要充分地保护人工智能科技研发者的利益,使其对新技术的开发具有积极性,进而促进我国人工智能技术早日向“强人工智能”发展。第三,立法者在法律制定的过程中,要注意其立法规则不能与传统的法律原则相违背,更不能与《宪法》发生抵触,违宪即无效。

法学界对人工智能问责的相关问题进行充分的讨论是一个好的趋势,但盲目的对其立法、设规显然局限,也不能解决实时性问题。因此,对人工智能法律人格应如何设定的问题,还要在我们未来的法律学习中继续摸索。

■  人工智能无法复制裁判的生成过程中的情感性、社会性因素的影响

刘渺在《法制与社会》 2019年第1期《人工智能在司法领域的运用现状及未来发展方向》一文中认为,由于数据的不完整、不真实影响了人工智能的准确性,那就要为人工智能技术奠定一个良好的基础:建立完备的法律大数据库。因此,应当以司法公开为依托,整合律师、检察院、法院等各类法律数据。同时对已有的数据进一步整理归纳,剔除其中重复、无效的“冗余数据”。在已有的中国裁判文书网的基础上,建立法院内部的不公开数据库,将影响裁判的各种因素进行分析处理,从而为以后同案裁判奠定良好基础。同时案例数据库的建立,能够提供丰富的判例资源,对各种类型的案例进行分析与总结,不仅有利于提高司法实践的水平,更为广大社会民众期盼的司法公正、公开、公平提供了良好的平台。

人工智能在司法领域应当定位于司法人员的辅助工具。这既是由人类对法律职业的认知所决定的,也是由人工智能自身的局限性所决定的。虽然人工智能具有人类所无法匹敌的运算速度、功能实现,但它尚无法取代法官的审判经验、主观能动。人工智能无法复制裁判的生成过程中的情感性、社会性因素的影响。若依赖人工智能技术断案,只能实现一般的、机械的、冰冷的公正,长久下去,人类的法治思维与文化都会发生倒退。未来应更多地将人工智能应用于处理技术性、辅助性工作,如法庭记录、数据传输等方面,期望人工智能技术在帮助法官处理机械性、重复性、技术性工作,提高司法效率方面发挥更多的作用。(栏目主持:王玥

作者:
编辑 刘桂瑶


(作者:王玥)
免责声明
未经许可或明确书面授权,任何人不得复制、转载、摘编、修改、链接读特客户端内容
推荐阅读
读特热榜
IN视频
鹏友圈

首页