- 0
- 0
- 0
分享
- 【学术发表】曾雄、梁正、张辉:欧美算法治理实践的新发展
-
2022-06-09
2022年6月初,清华大学人工智能国际治理研究院副院长梁正、助理研究员曾雄、张辉在《电子政务》上发表题为《欧美算法治理实践的新发展与我国算法综合治理框架的构建》的论文。文章以“治理五要素”视角,对欧美算法治理实践进行比较,深刻解读我国算法治理的现状与问题,并基于欧美在算法治理中的经验教训,结合目前我国算法治理存在的问题,就算法治理框架的构建提出方向性的政策建议。现将文章摘要和所提政策建议的重点内容推出,以飨读者。感兴趣的读者,欢迎点击文末‘阅读原文’链接,获取全文内容。
作者简介
曾雄
清华大学公共管理学院博士后、清华大学人工智能国际治理研究院助理研究员、中国政法大学法学博士
梁正
清华大学公共管理学院教授、清华大学人工智能国际治理研究院副院长、清华大学中国科技政策研究中心副主任
张辉
清华大学公共管理学院博士后、清华大学人工智能国际治理研究院助理研究员、南开大学技术经济与管理博士
文章摘要
算法治理是实现人工智能“向善”的重要一环,算法监控、算法歧视、算法滥用等问题频发,治理算法迫在眉睫。但算法治理不是一场“打地鼠游戏”,而应为算法建立一套体系化的综合治理框架。以治理目标、治理主体、治理对象、治理手段和治理模式这五项治理要素为维度,对比分析欧盟和美国算法治理的相同点和不同点,这些域外算法治理的最新实践可以为我国构建算法治理框架提供借鉴。基于此提出:在治理目标上,实现算法可问责与算法经济高质量发展;在治理主体上,通过部际联席会议制度形成算法治理合力;在治理对象上,从算法应用主体和应用场景角度拓宽算法治理的范围;在治理手段上,补强司法救济和技术治理措施;在治理模式上,优化多元主体参与的协同共治模式。
启示摘录
基于欧美在算法治理中的经验教训,并结合目前我国算法治理存在的问题,本文就算法治理框架的构建提出以下方向性的政策建议。
(一)在治理目标上,实现算法可问责与算法经济高质量发展
首先,算法具有“黑箱”特征,透明和可解释是算法治理的重要目标。算法透明并非指将算法代码公开,而是指向社会公众解释算法的运行规则和基本功能。坚持算法透明可以督促技术界从技术角度增强算法的可解释性,如技术界提出可解释性人工智能(Explainable Artificial Intelligence)方案,目的是使算法更透明、更可靠。实现算法透明需要配套措施,如算法审计、影响评估机制、个体解释权制度等。
其次,算法存在歧视的风险,因而平等、公正成为重要目标。平等和公正是社会主义核心价值观的重要内容,是坚持以人为本的重要体现。我国算法治理聚焦社会热点,重视对消费者、弱势群体和未成年人的保护,重点解决大数据杀熟、外卖骑手权益保护以及未成年人网瘾等问题。
最后,算法被广泛用于信息服务、交通运输、智能制造等领域,安全也应成为重要目标。算法安全包括技术安全,即避免算法技术出现严重漏洞。同时,包括运用安全,即避免算法被用于危害安全的目的。为保障算法安全,应对不同风险等级的算法场景进行分类,如低风险场景、中风险场景和高风险场景等,并对不同风险场景设计不同的规制措施。风险等级的划分需要结合中国的国情,比如在认定高风险场景时,西方国家偏重对个体自由的绝对保护,我国则重视对个人自由和社会公共利益的平衡保护,也重视对网络空间安全、信息内容安全和意识形态安全的保护,认定安全时会考虑更多元的因素。
算法治理的根本目标在于促进算法经济的高质量发展,在日益复杂的国际竞争形势下,提高自主技术创新的能力和水平是国家安全发展的根本出路。从欧美的治理实践可以看到,美国将其在人工智能领域的全球竞争优势作为优先考虑事项,出台预防式规制措施时应保持谨慎态度。
(二)在治理主体上,通过部际联席会议制度形成算法治理合力
鉴于算法治理的复杂性,不少观点呼吁为算法治理新设一个治理机构。国外有人呼吁为算法治理创设一个国家算法安全委员会(National Algorithm Safety Board),并要求相关主体部署算法前,由委员会对算法进行审计、监管和许可等。也有观点提议创设一个与美国食品和药品管理局类似的算法监管机构,并对算法进行行政许可,要求“有实验证据证明算法是安全和可靠的才能进入市场”。2020年,中国消费者协会也建议设立一个算法伦理监督机构,负责算法应用伦理、规则、标准等的制定和调查,处理不公平算法应用。在我国新设一个监管机构的时机尚未成熟,目前可以参照现行的反垄断与反不正当竞争部门联席会议制度,在多部委一起参与算法治理的格局下,通过建立算法治理联席工作机制,对齐治理的尺度和目标,强化组织领导和统筹协调,实现部门的密切协同,以形成算法治理合力。
(三)在治理对象上,从算法应用主体和应用场景角度拓宽算法治理的范围
从算法应用主体的角度看,全球各个国家的公共部门越来越依赖于大数据和算法实现社会治理,基于上文对欧美治理实践的对比分析,欧美都同步推进对私主体和行政机构算法应用活动的治理进程。我国现阶段主要聚焦于市场企业这一主体,容易忽视公共主体的算法责任。国内学界也关注到“算法官僚”或“算法影子官僚”的问题。算法官僚是对传统官僚工具理性的延续,被赋予决策权力的算法官僚被用于推动、引导、刺激、控制、操纵和约束人类行为。算法官僚会出错,因而需要防范算法官僚出错,并为出错的情形提供救济机制。“算法影子官僚”指通过政府购买或以公私合作的方式介入政府公共管理过程的算法公司及其员工来帮助政府机构作出决策和进行管理,比如采购算法方案用于交通管理、税务管理、司法裁决等。由于算法技术本身存在漏洞,而且算法开发公司具有资本逐利性,算法影子官僚存在“逆向选择”和道德风险,也有治理的必要性。
从算法应用场景的角度看,自动驾驶、医疗人工智能、智能投资顾问等产业兴起,其治理问题逐渐显现。目前,我国算法治理的规则体系主要适用于互联网信息推荐领域,具有场景的局限性。自动驾驶、医疗人工智能和智能投资顾问领域的算法治理规则分散于大量指导意见或标准文件中,治理目标、尺度和机制不统一,不仅影响治理效率,而且给企业合规带来困难。为此,基于对拓宽算法治理对象的考虑,可以制定一部《算法问责法》实现算法的综合治理,并为算法问责建立一套完整的责任机制,包括明确问责主体、被问责对象、问责方式和程序以及问责事项等。
(四)在治理手段上,补强司法救济和技术治理措施
司法是维护社会公平正义的最后一道防线,针对算法治理中司法救济缺位的情形,未来应重视将个人在算法应用中的救济权利制度化、规范化和司法化。个人的权利救济主要有算法结果的解释、算法决策的可选择等,一旦这些个人权利无法得到实现,就应借助司法救济。由于算法应用广泛,且算法应用主体具有资本优势、权力优势和技术优势,由单独的个体提起司法诉讼面临举证难和救济效果有限的问题,因而应鼓励适格的公益组织以民事公益诉讼的方式参与算法治理。针对以算法实施大范围社会侵害的情形,检察机关也可以提起民事公益诉讼。对于“算法官僚”或“算法影子官僚”,一旦算法决策导致行政相对人合法权益受损时,行政相对人有权对行政机关提起行政诉讼。
算法治理是一项技术密集型的治理活动,制定治理规则后应该善用技术创新解决技术带来的新问题。对于算法应用中可能存在的数据泄露和隐私侵犯问题,技术人员尝试以数据匿名化、联邦学习、区块链等一系列技术方法予以应对。比如业界一些企业采用联邦学习的模式,各个参与方不需要共享数据就可以联合训练算法模型,该技术方案已经在医疗、金融等行业领域得以落地应用。对于算法“黑箱”的问题,业界也在开发技术方案,比如谷歌提出模型透明性工具“model card”,微软提供机器学习可解释性工具InterpretML。美国电气与电子工程师协会(IEEE)则提出“遵循伦理的设计”(Ethically Aligned Design):①将价值和伦理标准程序化为代码嵌入系统中,并对系统训练和评估。②为设计者提供一套行为准则或设计规范,约束设计者的行为。推行“遵循伦理的设计”机制可以确立算法的底层伦理标准,实现事前干预。对于业界提出的创新技术,需要完善政策导向和专利制度,推进算法相关发明的可专利性,从而激发业界从事技术创新的动力,从而为算法的技术治理不断提供创新的技术方案。
(五)在治理模式上,优化多元主体参与的协同共治模式
协同治理模式在治理理论中广受关注,它是一种多元主体参与共识导向的决策模式,能让各主体建设性地跨越公共机构、政府等级以及公共、私人与市政领域的边界。协同治理模式具有主体多元化、共识协商化的特征,其中多元主体有能力、有动力参与治理是实现协同共治的关键。
在协同共治模式中,政府机构发挥着主导作用。在国外算法治理实践中,欧美都非常重视政府机构的作用。
除了政府机构外,还需发挥社会和市场的作用。在社会方面,要求将算法规则和评估报告向社会公示,实现社会舆论监督。目前,社会公众和学界对算法存在一些偏见或误解,或将算法神秘化,或将算法污名化,即认为数字时代的一切“恶”都源于算法。对此,我们应该对算法有客观和理性的认识,因而需加强跨学科的研究讨论,重视算法科普工作,提升全民算法素养。
在市场方面,应当成立以技术、产品和合规人员为主的行业协会,制定具有可操作性的技术规范,就数据收集、利用等关键问题达成共识,对算法设计、部署的各项风险实现评估。对于企业而言,应重视企业的自我规制,加快推进算法合规标准、合规指南、算法伦理指引等文件的制定,并建立内部的自我纠偏机制,在产品测试环节对各项功能中可能存在的问题进行记录,正式版本发布之后也要对用户反馈进行及时处理、记录与反馈。各个企业可以建立“吹哨人”制度,鼓励企业内部人员监督举报,并对“吹哨人”提供保护。
总之,在算法治理中应坚持以政府为核心,畅通社会参与机制,让企业、研究智库、行业协会、社会公众等多元主体共同参与,并重视对话与协商,引导不同主体参与规则制定,引入第三方独立的监督力量。
引用格式
曾雄,梁正,张辉.欧美算法治理实践的新发展与我国算法综合治理框架的构建[J/OL].电子政务.https://kns.cnki.net/kcms/detail/11.5181.TP.20220608.1142.006.html
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
-
阅读原文
* 文章为作者独立观点,不代表数艺网立场转载须知
- 本文内容由数艺网收录采集自微信公众号清华大学人工智能国际治理研究院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。