习近平总书记在中共中央政治局第二十次集体学习时强调:“要正视差距、加倍努力,全面推进人工智能科技创新、产业发展和赋能应用,完善人工智能监管体制机制,牢牢掌握人工智能发展和治理主动权。”人工智能作为新一轮科技革命与产业变革的核心驱动力,已展现出对人类生产与生活方式的深刻变革潜力。然而,人工智能在赋能社会进步、创造发展新机遇的同时,也衍生出系列治理挑战。鉴于此,亟需深刻洞察现实情境,系统推进人工智能治理的多维度协同机制构建,以牢牢掌握人工智能治理主动权。
以技术治理赋能人工智能内生性安全与高置信可靠
随着人工智能特别是生成式人工智能应用的迅速迭代更新,算法黑箱、算法偏见等问题涌现,迫切需要强化技术治理,以技术治理赋能人工智能内生性安全与高置信可靠。技术治理维度可侧重从数据、算法两个层面着眼。
于数据层面,作为人工智能的重要燃料,面临着数据质量参差不齐、数据供给全面性不足、无法有效识别数据偏见等现实问题。这些问题不仅可能阻碍人工智能的迭代发展,还易引发人工智能的内生性安全风险。因此,需要清晰界定对数据偏见的涵盖范围,建立数据偏见检测和清洗的标准化流程,制定相应公平性指标,并利用相关工具包如AI Fairness 360测试训练数据中的暗含偏见,采取相应的偏见缓解算法以更全面处理数据公平性问题。同时,构建多元化的人工智能训练数据供给体系,优化多源头数据采集机制,拓展数据来源的多样性。
于算法层面,算法模型的进一步演进显著提升了算法系统的复杂性,算法模型可解释性低和算法偏见等技术风险问题渐趋明显。尽管算法模型构建是一项存在固有黑箱特性的系统工程,但仍可通过渐进式方法在算法开发、应用阶段逐步提高其可解释性。在模型设计阶段,优先使用透明度高的算法模型。相关监管机构应鼓励模型设计者构建算法溯源规范体系,详尽记录算法开发、训练、部署应用的全周期发展过程,以及其中数据的来源和处理过程,强化算法溯源工作的有效性。
以伦理治理形塑人工智能价值对齐与负责任发展
国家新一代人工智能治理专业委员会发布的《新一代人工智能治理原则——发展负责任的人工智能》明确提出要“发展负责任的人工智能”,为人工智能治理提供了可行的伦理路径。党的十八大以来,以习近平同志为核心的党中央高度重视我国新一代人工智能发展。习近平总书记强调:“坚持以人为本、智能向善。”以伦理治理形塑人工智能价值对齐与负责任发展,具体要求包括:
一是基于人类尊严原则对人工智能进行约束。尊严是人类存在的核心价值,应在人工智能的设计和发展中坚守伦理底线,强化人的主体价值,强调需以不侵害人的权益和尊严为基本原则,建立全链条的算法偏见审查机制,减少对人类尊严的伤害。同时清晰界定人工智能研发和应用中必要的禁止性规定,突出强调人类尊严不可侵犯是首要原则。
二是坚持推动AI“向善发展”。于模型研发中注入符合人类伦理的价值观,坚决维护科技发展不得背离伦理和道德约束的原则,确保AI大模型行为表现始终与人类价值观保持高度一致,并坚持以增进人类福祉为最终追求。
三是在治理中贯彻责任原则。明确将责任归属于AI的创造主体即人类,以充分彰显以人为本理念中的人文精神。进一步建立健全责任界定机制,对人工智能相关主体的权利和责任作出合理界定,以有效规制主体的行为,并确保责任可溯源,最终切实保障用户的基本权益。人工智能在本质上属于人类实践活动创造的高级工具,服务于人类工作效率的提升,技术的进步不应导致其脱离工具属性,须始终锚定以人为本的核心价值基点,以维护人的利益和尊严、促进人的发展进步构成贯穿始终的逻辑起点与终极目标。
以法治治理框定人工智能合规运行与健康可控边界
以不确定性为核心特征的人工智能,需要谋求法治稳定性与新兴技术治理灵活性之间的动态平衡,以框定人工智能合规运行与健康可控边界。当前我国正持续推进人工智能领域法律完善工作,以《网络安全法》《数据安全法》《个人信息保护法》为基石,相继出台《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理暂行办法》等政策规定,筑牢AI监管的高墙。然而,当前法治治理呈现法律法规存在一定模糊性、责任界定标准不健全、人工智能安全监管方面针对性法律政策空缺等问题,从强化法治治理维度,需要推进人工智能领域专项立法的持续深入。如完善人工智能实际应用领域的相关法律法规,清晰规定其在教育、医疗、交通、金融等场景的应用规范。聚焦人工智能三大基本要素衍生的隐私、数据、算法安全等问题,明确与其相关性较高的基础领域法律规定。在法律体系中创新责任归属机制,于立法层面明确涉及人工智能侵权问题时各主体的责任地位,指明侵权归责路径,划清各主体责任边界。通过法律法规的完善,能够有效避免治理过程中可能出现的权力滥用、隐私泄露等实际问题,切实保障个体权益并维护社会公共利益,推进以法治治理框定人工智能合规运行与健康可控边界。
以协同治理聚合多元主体构建人工智能韧性生态
人工智能系统是一个复杂性较高的系统,需汇集国内外多方力量促进协同共治,以实现治理效能最大化。目前,多方协同共治仍处在初步建立阶段,存在着治理分工不明、跨主体协同实效不足、全球共治格局尚未完全形成等突出问题。必须进一步完善协同治理聚合多元主体构建人工智能韧性生态。
于国内层面,完善党委领导、政府主导、企业和公众参与的治理机制。党委领导旨在把握人工智能治理正确方向,确保技术发展始终遵从国家战略,服务人民根本利益。针对跨部门主体协调性不足的问题,完善领导协调机制,建立跨部门的专门协调领导机构,避免职责不清导致的治理效率低下问题。政府主导旨在加强对AI的监管,构建更为有效、更具层次性的监管体系。如合理划分风险等级、明确区分不同场景风险类型,对各级各类风险进行精细化、针对性管理,以把握治理主动权并提高治理有效性。企业作为AI技术的开发与应用者,通过建立内部治理框架、完善风险评估体系和事故反应机制、健全问责机制等途径,以有效减少风险发生的概率并提高化解风险的能力,更好发挥企业在协同治理中的基础性作用。公众参与旨在提升公众数字素养、增强对AI基础性知识、安全性问题的理解及认知。同时进一步拓宽公众参与渠道,于制定人工智能治理相关政策法规环节,吸纳公众建议,凝聚集体智慧。
于国际层面,积极参与并推动人工智能全球共治。习近平总书记在中共中央政治局第二十次集体学习时强调:“人工智能可以是造福人类的国际公共产品”“要广泛开展人工智能国际合作”“要推动各方加强发展战略、治理规则、技术标准的对接协调,早日形成具有广泛共识的全球治理框架和标准规范”。中国作为负责任大国,积极推动形成更为深入、广泛的人工智能国际交流与合作,加快构建更具包容性、开放性的全球治理体系,共享数字红利。同时,在政府间国际组织的协助下,推动各国就数据跨境使用和监管、模型安全、伦理规则等议题展开讨论,协商具体治理规则以达成共识,在求同存异中有效化解全球治理规则碎片化困境。
深刻把握人工智能等新兴技术的发展趋势,以技术治理、伦理治理、法治治理、协同治理为具体抓手,系统推进人工智能治理,牢牢掌握治理的主动权,以期实现稳健且长效的人工智能治理目标,持续推进此领域的高质量和可持续发展,最终服务于人类文明的进步并增进人类福祉。
【本文是广东省哲学社会科学规划党史特别委托项目(GD24WTF01)的阶段性成果】
(作者分别为南方医科大学马克思主义学院教授、博士生导师,南方医科大学马克思主义学院硕士生)
编辑 欧阳晨煜 审读 张雪松 二审 王雯 三审 甘霖