资讯
展览资讯 大型展会 灯光节 大型盛典 赛事 中标捷报 产品快讯 热门话题 艺术节 活动 演出 新闻 数艺报道 俱乐部签约
观点
大咖专访 观点洞察 书籍推荐 吐槽 设计观点 企业访谈 问答 趋势创新 论文 职场方法 薪资报价 数艺专访
幕后
幕后故事 团队访谈 经验分享 解密 评测 数艺访谈
干货
设计方案 策划方案 素材资源 教程 文案资源 PPT下载 入门宝典 作品合集 产品手册 电子书 项目对接
  • 0
  • 0
  • 0

分享

【学术发表】贾开、张楠:人工智能风险分类与分野:全球人工智能准则比较研究

原创 2021-09-14

2021·AIIG

2021年7月2日,电子科技大学公共管理学院副教授贾开和清华大学公共管理学院副教授、清华大学人工智能国际治理研究院专家张楠在知名国际期刊《Electronic Markets》上发表题为《Categorization and eccentricity of AI risks: a comparative study of the global AI guidelines》的文章。


文章指出,近年来人工智能技术在多个领域快速发展和应用,但与此同时相关学者、决策者、企业家以及公众也对人工智能带来的风险表示担忧。目前全球主要是通过软法来应对这些风险,例如以规范道德准则的方式。AlgorithmWatch数据库的数据显示,在过去的5年中,全球已形成160多条关于人工智能道德的准则。文章还指出,尽管软法在敏捷性和灵活性方面有优势,但也有研究人员对其指导利益相关者行为的有效性等方面提出批评。文章指出,当前人们仍缺乏对现有人工智能道德准则提出的问题的全面了解,以及需要弄清楚这些准则的关注点是否与现实中的人工智能风险相符合,如果有不符合的地方,又将如何改进?本篇文章主要分为五部分,分别为:文献回顾;人工智能风险的理论框架;方法论;对全球人工智能准则的描述;以及对现有文章、准则进行编码后,基于人工智能风险的理论框架对其进行分析的结果。


现将文章摘要部分编译推出,以飨读者。感兴趣的读者,欢迎点击文末‘阅读原文’链接,获取全文内容。

作者简介


贾开

电子科技大学公共管理学院副教授


张楠

清华大学公共管理学院副教授、清华大学人工智能国际治理研究院专家

中文摘要


背景介绍

政府、企业、民间组织和学术界都在推动人工智能规范性准则的形成,旨在规范人工智能在不同领域的发展和应用,例如司法援助、社会治理和商业服务等。


研究目标

尽管全球已经提出了160多项关于人工智能的准则,但仍不能确定这些准则是否足以应对人工智能的治理挑战。鉴于缺乏一个整体的理论框架来分析人工智能的潜在风险,很难确定现有的指导方针中哪些被高估,哪些有遗漏。文章基于风险管理领域的经典理论模型,建立了一个四维框架,以作为分析人工智能的风险及其相应治理措施的基准。在粒度维度方面分为特定风险和一般风险;在原理维度方面分为法律风险和伦理风险;在强度维度方面分为个人风险和集体风险;在范围维度方面分为代际风险和跨代风险。


方法

文章对123条准则和1023篇文章进行了编码,并根据理论框架对这些已编码的现有准则进行了比较研究。


结果

文章发现,现存的准则存在一些偏离常规(eccentric)内容的部分,尤其是集体风险和代际风险在很大程度上被利益相关者低估了。基于这一系列分析,文章最后列出了三条有助于加速人工智能技术发展和全球应用的建议。



英文摘要


Background

Governments, enterprises, civil organizations, and academics are engaged to promote normative guidelines aimed at regulating the development and application of Artificial Intelligence (AI) in different fields such as judicial assistance, social governance, and business services.


Aim

Although more than 160 guidelines have been proposed globally, it remains uncertain whether they are sufficient to meet the governance challenges of AI. Given the absence of a holistic theoretical framework to analyze the potential risk of AI, it is difficult to determine what is overestimated and what is missing in the extant guidelines. Based on the classic theoretical model in the field of risk management, we developed a four-dimensional structure as a benchmark to analyze the risk of AI and its corresponding governance measures. The structure consists of four pairs of risks: specific-general, legal-ethical, individual-collective and generational-transgenerational.


Method

Using the framework, a comparative study of the extant guidelines is conducted by coding the 123 guidelines with 1023 articles.


Result

We find that the extant guidelines are eccentric, while collective risk and generational risk are largely underestimated by stakeholders. Based on this analysis, three gaps and conflicts are outlined for future improvements.

引用格式


Jia, K., Zhang, N. Categorization and eccentricity of AI risks: a comparative study of the global AI guidelines. Electron Markets (2021). https://doi.org/10.1007/s12525-021-00480-5

  

清华大学人工智能国际治理研究院Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。

阅读原文

* 文章为作者独立观点,不代表数艺网立场转载须知

本文内容由数艺网收录采集自微信公众号清华大学人工智能国际治理研究院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。

数字媒体艺术 新媒体艺术 科技艺术 作品分享 科技前沿

18700 举报
  0
登录| 注册 后参与评论