资讯
展览资讯 大型展会 灯光节 大型盛典 赛事 中标捷报 产品快讯 热门话题 艺术节 活动 演出 新闻 数艺报道 俱乐部签约
观点
大咖专访 观点洞察 书籍推荐 吐槽 设计观点 企业访谈 问答 趋势创新 论文 职场方法 薪资报价 数艺专访
幕后
幕后故事 团队访谈 经验分享 解密 评测 数艺访谈
干货
设计方案 策划方案 素材资源 教程 文案资源 PPT下载 入门宝典 作品合集 产品手册 电子书 项目对接
  • 0
  • 0
  • 0

分享

人工智能国际治理研究院副院长梁正、首席专家曾毅谈算法治理:算法治理应该重点关注什么?企业算法伦理治理与应用应该怎么做?

2021-12-22

12月17日,清华大学人工智能国际治理研究院副院长梁正、首席专家曾毅出席由清华大学社会科学学院社会学系、中国科学院学部-清华大学科学与社会协同发展研究中心主办的“伦理立场、算法设计与企业的社会责任”研讨会。在讨论环节,梁正老师以理念到实践的逻辑探讨算法治理,通过介绍算法赋能社会治理的价值、特征、风险,结合算法治理的国际经验比较和我国算法治理案例分析,来尝试建构我国算法治理的路径和模式。曾毅老师则从技术专家的角度对人工智能的概念做了界定,并且揭示了当前算法伦理问题的潜在风险及其未来值得更多关注的重要议题。


算法治理应该重点关注什么?国际算法治理模式又有哪些?应该如何构建算法治理机制?


针对于这一系列关于算法治理的问题,让我们来看看两位老师的精彩观点都有哪些!


梁正:算法治理应关注技术使用过程及产生的影响


梁正在研讨会上表示,算法治理是一个制度问题,不是技术问题,算法的治理应当重点关注算法使用的过程及其产生的影响。


梁正表示,从技术特性方面看,机器学习目前还是一个“黑箱”过程,在透明性和可解释性上存在问题某种程度上类似于化学科学产生之前的“炼金术”阶段,“我们知道算法管用,但不知道它的核心原理是什么,需要在基础理论方面进一步深入研究。”


梁正分析说,从国际经验看,欧盟是自上而下地制定规则,以算法透明和问责去保证算法公平。他称,这里面,涉及到了算法原理的可解释性、过程的可追溯性及决策结果的可被理解性,具体的治理路径是建立算法评估机制、审计机制以及问责机制,用这个方式倒推算法开发和应用的责任。


相较而言,美国对算法的规制相对谨慎,梁正说,“如果把算法理解为一套技术方案,对它进行干预的话,可能就不符合基本的市场竞争理念。美国在这方面还是很小心,特别是商业、企业领域。不过,在过去三年,美国在公共领域比较明显的变化是对人脸识别技术的禁用,包括纽约市出台的算法问责法,州层面出台的法案如《加州消费者隐私法》,则类似于欧盟的思路。”


他介绍,中国目前已经出台一系列法律法规,包括《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》,建立了基础机制,一些规范、指引、准则在推出过程中,数据治理体系也在建设中。在基本的制度体系建立后,接下来应该重点研究制定可实施和操作的细则。


“治理模式构建方面,算法的治理不在于算法本身,而在于算法使用后产生的影响。当然,也不只是看结果,还要看过程,这是一个理想状况。如果技术解决方案上能够做到可解释、可负责、可信任,就可以保障它不出问题。算法治理还需要多方协同参与,包括使用者、劳动者、研发设计者、管理者等等。”他还说。


梁正指出,“目前国家出台的相关法律,把安全、个人权益等敏感问题的红线都划出来了,之后便是针对各专门应用领域提出更具体的要求,算法做到可解释、可问责,治理中实现分级分类、分场景。同时,过程中有监督,事后有补救,以及确定治理的优先级,在不同领域应用不同的治理工具,包括对基本底线的把控。”


他最后强调,算法治理是一个制度问题,不是技术问题,不能仅仅按照技术的选择区分什么是好算法或坏算法。


人工智能的概念到底该如何界定?人工智能对未来社会的影响程度是什么样?企业算法治理与应用应该怎么做?


让我们一起来看看曾毅老师是怎么看上述问题的。


曾毅在研讨会上指出,企业算法伦理与应用要做到“知行合一”。


人工智能是一个看似智能的信息处理工具,但并不能像人类之间一样默认有一定的基线水平信任,人类的信任来源于长期的文化沉淀与关系网络。”曾毅表示,人们对于人工智能系统的起点应是不信任,随着交互增多,人们开始逐渐对人工智能系统与服务产生一定的、有条件的信任。


企业算法伦理与应用要做到知行合一。”曾毅指出,在人工智能伦理和治理方面,一些企业设有伦理研究团队,并产生一些关于伦理研究的结果,但伦理研究结果并没有真正用来指导企业研发人工智能产品与服务,甚至产品团队与伦理团队存在较大鸿沟,如果是这样的话,长远来看企业很难赢得公众、政府、学术界的信任。


伦理原则的技术落地挑战重重,需要企业和学术界真正将伦理关切进行深度技术实践。曾毅举例说,《中华人民共和国个人信息保护法》、人工智能治理原则都谈到了平台应该给用户授权,比如用户可要求平台删除用户的数据,这件事看起来简单,但它在技术落地上几乎不具备可行性。


“数据库里可以实时删掉用户的数据,但只要是用人工智能算法的企业都知道,应用数据方法绝大多数不是放在数据库里面调用的,而是通过人工智能和机器学习模型学习,把用户特征学习到了以后,以参数的形式内化于人工智能模型当中。如果你采用类似于深度学习的神经网络模型,是很难把单个用户数据的影响从模型当中删除的。”曾毅称。


人工智能对于社会长远的影响也不可忽视。曾毅表示,人类的下一代是社会当中最脆弱的一代,因为当受到伤害的时候,他们没有成年人的表达欲望和能力。另外,即使他们受到人工智能产品与服务的伤害时,他们可能也不自知。这就使得他们更容易受伤害。


因此,曾毅表示,目前人工智能伦理原则中,应该明确告知用户现在交互的对象是人工智能,而不是人类,未来也不应该混淆人工智能与人类之间的界限。


“如果真正能够实现人类水平的人工智能,它必然是有真正的理解能力。假如它变成社会准成员,我们该怎么处理人工智能与社会准成员之间的关系?也许我们的文化现在还很难接受人工智能成为社会准成员,但是一旦向这个方向迈进,实现通用人工智能或涌现出超级智能,对现在的社会来说,是完全没有任何准备的,其存在的长远伦理问题未来三五十年时间未见得有解。”曾毅称。


关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。

新浪微博:@人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

来源 | 本文来源于中新经纬,阅读原文获取更多内容

阅读原文

* 文章为作者独立观点,不代表数艺网立场转载须知

本文内容由数艺网收录采集自微信公众号清华大学人工智能国际治理研究院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。

数字媒体艺术 新媒体艺术 人工智能 企业算法 案例分析

16199 举报
  0
登录| 注册 后参与评论