- 0
- 0
- 0
分享
- 算法黑箱如何解决?算法还要公开什么?南都算法治理圆桌热议
-
2022-12-25
“目前来看,我认为算法的黑箱特征已经到了一个非解决不可的阶段。”12月22日,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正在2022啄木鸟数据治理论坛上这样说。
这场论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。在上午算法治理专场的圆桌论坛上,多名专家云集,就我国算法治理现状、算法需要公开的内容、算法治理未来方向等问题做了讨论。
有专家认为,人类在很多场景下试图在把自身一部分责任推给机器。也有专家在谈到国内的算法治理工作时提到,也许可以对做得好的企业进行一些表彰性或引导性的肯定,引导企业自我治理和自我配合监管的动作,在行业层面推出最佳监管实践。
算法“黑箱”问题与AI发展阶段有关
说到算法,普罗大众的一个最直观,或者是最普遍的认知,就是“难以理解”——或是其运行的具体流程、或是其核心逻辑、甚至是某种算法的真正目的。而对于这种“为人不知的、既不能打开又不能从外部直接观察其内部状态”的系统,业内常常用“黑箱”一词来形容。
近几年,这一词语越来越为大众所知,“算法黑箱”甚至成为国内外算法治理的一大重要难题。一方面,大众对逐渐嵌入自己生活的算法有着本能的求知欲,却长期得不到解释,进而产生恐惧心理;另一方面,有技术方表示算法本身具有一定理解门槛,本就难以理解。
“其实,黑箱问题和人工智能技术本身的发展阶段和趋势有关,这是现代人工智能发展中,特别是深度神经网络兴起后的这二十余年更为凸显出的情况。”中国科学院自动化研究所人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员、清华大学人工智能国际治理研究院人工智能伦理与治理方向首席专家曾毅表示。
他进一步解释,人工智能技术在最开始发展时很多算法的可解释性是相对较强的,例如决策树、基于规则的推理,对于其输出结果是完全可以解释的。但由于规则系统的泛化性(指算法对于新样本做出准确预测的能力)有限,加之近年来大规模数据的积累和算力的发展,使得深度神经网络在应用层面取得较好效果,然而带来的代价是可解释性十分有限。
在曾毅看来,深度神经网络在特定领域和产业当中有较好的应用效果,但这种对优良效果的追逐在某种程度上成为了“趋利主义”。因为这样的人工智能系统在常规情况下输出绝大多数情况可预期,而最大风险是例外情况下出现的问题不可预期。AI可以遍历所有错误的可能性,并且即使犯错,AI在很多情况下不会认为这是错误,这就致使人类几乎完全无法预测甚至是有失去控制的风险。
梁正则认为,“某种方法由于好用而大行其道”在工程技术实践中其实是相当普遍的现象,当前人工智能的发展阶段在某种程度上就像是化学中“能够得到想要的物质”的炼金术阶段——明显是早期发展的特征。不过他也承认,算法黑箱已经到了一个非解决不可的阶段,因为即使出现极低概率的事故,也是不安全的,有违公众信任的。
“当然,基于深度神经网络的机器学习是当前的主流技术路线,并非全部。新一代的人工智能,比如知识计算,都有解决现在的算法可解释性、可信任问题的可能。”梁正说。
不能把所有问题都归咎于算法
那么,除了“算法黑箱”之外,现阶段国内的算法治理工作还存在着哪些特点和问题呢?
梁正表示,当前有部分国外学者认为我国在算法治理上提出的一些要求在真正落实上困难很大,但同样也觉得中国会摸索出一条新的道路。因此,他提出,制度如何与技术实现匹配,这是当前国内算法治理面临的第一点需要思索的问题。
其次,梁正也认为,当前算法治理面临的问题,其实是在市场监管、行业发展中会始终面临的情况,主要有两类:
第一,市场经济发展不完善、不成熟、不健全。比如大数据杀熟,在所谓非人工智能也是存在的,只是在数字时代的背景下会更加凸显出来。因此不能把所有问题都归类到算法上。
第二,人工智能技术的普遍使用导致新的商业模式出现,因此,算法治理面临的是新问题,需要通过从技术、制度两方面的探索找到新的解决方案。
而在曾毅看来,国内的算法治理工作未来应当注意两个值得提升的方面:
第一,当前国内的算法治理工作主要集中在对数据方的规制上,在算法决策、平台、应用方面的治理还需加强。
第二,目前人工智能技术的发展根本无法支撑其作为责任主体,但现在人类已经在很多场景下试图在把自身一部分责任推给机器,这对基于人工智能的系统与服务的可控性和可靠性是巨大挑战。
算法公开只是第一步
在上述的背景和问题下,我国未来的算法治理工作还应如何开展?
以算法治理中的算法备案工作为例,中国政法大学数据法治研究院教授张凌寒表示,在这个过程中,很多企业都会有“不知道备案信息用来干什么”的疑虑,他们会担心如果交出的信息过多,一旦发生问题是否会成为自己被问责的依据?是否真的对用户有效?是否会让竞争对手知晓商业机密?在张凌寒看来,这些声音或许可以成为监管部门的一个参考:在制度层面,收集到的算法信息怎么用、怎么公开,以什么形式公开,都是值得探索的问题。
此外,张凌寒也提到,目前国家算法治理上,正面引导和鼓励在政策层面的比较少。因此她提议,或许可以在企业做得好的时候,给予一些表彰性的肯定或者软性的指引,比如引导企业进行自我治理和自我配合监管,在行业层面推出最佳监管实践等等。
中国社科院科技和社会研究中心主任段伟文则就“算法”本身在概念层面的认知提出了他的思考。他认为,无论将算法当做无法理解的“黑箱”还是辅助认知的工具,它都具有一定的认知能力,在现实社会中具有功能性。
因此,首先应该明确算法的目的,然后在对公众、媒体进行解释,这样才能方便受到算法影响的大众了解其特定的目的是否公正,运用算法实现某个特定的目的是否必要,在知情的情况下是否同意算法用于这一特定的目的,进而使消费者和大众可以直接比对算法究竟是否实现了最初所说的特定的预期目的,追问这一特定目的在具体场景中会不会导致滥用,并关注在此算法应用过程中采集的数据将来会不会挪用于其他目的包括不正当的目的,会不会导致进一步的滥用。
北京理工大学教授洪延青对段伟文的观点表示认同,他表示,算法公开其实只是一个手段,目标是激发社会各个主体都参与进算法治理中。同时,公开也是构成认知的一部分,只有让大众都有“存在问题”的认知,才能倾听到各个社会主体的声音,进而产生更多办法让算法变得更加透明,更加可预期。
-
阅读原文
* 文章为作者独立观点,不代表数艺网立场转载须知
- 本文内容由数艺网收录采集自微信公众号清华大学人工智能国际治理研究院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。