资讯
展览资讯 大型展会 灯光节 大型盛典 赛事 中标捷报 产品快讯 热门话题 艺术节 活动 演出 新闻 数艺报道 俱乐部签约
观点
大咖专访 观点洞察 书籍推荐 吐槽 设计观点 企业访谈 问答 趋势创新 论文 职场方法 薪资报价 数艺专访
幕后
幕后故事 团队访谈 经验分享 解密 评测 数艺访谈
干货
设计方案 策划方案 素材资源 教程 文案资源 PPT下载 入门宝典 作品合集 产品手册 电子书 项目对接
  • 0
  • 0
  • 0

分享

张钹院士:做负责任的人工智能

2022-11-15

张钹

中国科学院院士、清华大学人工智能研究院名誉院长、人工智能国际治理研究院学术委员会委员、我国人工智能奠基人




2022年11月10日下午,世界互联网大会乌镇峰会“人工智能与数字伦理分论坛”召开,清华大学人工智能研究院名誉院长张钹院士线上发表演讲。



张钹院士演讲原文:


女士们先生们,大家好!


我今天讲的主题是:《做负责任的人工智能》。


最早提出机器人发展中可能存在伦理风险的是,美国科幻小说家阿西莫夫在他的小说“环舞”(Runaround)中提出的,时间是1942年,早在人工智能诞生之前,为此他还提出规避风险的方法,即大家熟知的“机器人三定律”,应该说这些问题的提出具有前瞻性。后来物理学家霍金等也不断地提出类似的警告,但这些警告并没有引起大家特别是人工智能界的重视。


原因在于他们的立论依据不够充分,他们认为机器的不断进步和发展,有朝一日当它的智力超过人类,特别是机器具有主观意识时,即出现所谓的“超级智能”时,人类将会失去对机器的控制,从而带来灾难性的后果。这种“技术逻辑”对于大多数人工智能研究者来讲并不具有说服力。因为大家清楚地知道,人工智能研究工作目前还处于探索的阶段,进展缓慢、还受到很多问题的困扰,难以解决,制造“超人类”的机器人谈何容易。而且能不能通过所谓“通用人工智能”达到“超智能”的目标,也一直存在着争议。因此我们认为这些风险只不过是未来的“远虑”而已,不急于考虑。


可是,当本世纪初基于大数据的深度学习在人工智能中崛起之后,人们的认识有了很大的变化,深切地感到人工智能的伦理风险就在眼前,治理迫在眉睫!这是为什么?大家知道,本世纪初基于大数据的深度学习被广泛地应用于各个领域,用来完成决策、预测和推荐等任务,给人类社会带来很大的影响。但是,人们很快发现基于大数据的深度学习算法具有不透明、不可控和不可靠等缺陷,导致AI技术很容易被无意误用,可能给人类社会带来严重的后果。


大家知道,根据目前人工智能的技术,我们可以通过生成式神经网络根据使用者的要求生成符合要求且质量良好的文本和图像。但同样的神经网络也可以违背用户的要求生成充满(种族、性别等)偏见、不公正和错误百出的文本与图像,完全不受使用者的控制。可以设想,如果根据这些生成的错误文本做决策或预测,就可能带来破坏公平性与公正性的严重后果。


我们原以为,只有当机器人的智能接近或超过人类之后,我们才会失去对它的控制。没有想到的是,在机器的智能还是如此低下的时候,我们已经失去对它的控制,时间居然来得这么快,这是摆在我们面前很严峻的现实。


阿西莫夫在《机器人三定律》中曾提经出规避伦理危机的方案,内容是“一,机器人不得伤害人类,或因不作为而让人类受到伤害;二,机器人必须服从人类的命令,除非这些命令与第一定律相冲突;三,机器人必须保护自己的存在,只要这种保护不违反第一或第二定律”。总之一句话,人类应该牢牢把握机器的控制权。让机器做人类的奴隶!这种办法能否解决机器的伦理危机?答案显然是否定的!


实际上,让“机器完全听从人类的指挥”,在早期“无智能”的机器中我们就是这样做的。但是如果我们想让机器向智能化的方向发展,就不能让机器完全听候人类的“摆布”,需要赋予它一定的自由度和主动权。生成式神经网络就是根据这个原理,利用“概率”这一数学工具,使机器能够生成丰富多样的文本和图像。但也因为这个原因,就一定存在生成不合格和有害文本与图像的概率(可能性)。这是我们在赋予机器智能的时候所必须付出的代价,难以避免。


那么我们有没有可能通过给机器规定严格的伦理准则来限制它的错误行为?实际上,这也很困难!不仅因为“伦理”的准则很难准确描述,但即便可以定义,也很难执行。举一个简单的例子,比如自动驾驶车(或无人车)行驶在普通的马路上,如果我们规定自动驾驶车必须严格遵守交通规则,这个“准则”应该是很明确的。但如果路上同时还有“有意或无意违反交通规则”的有人车和行人,自动驾驶车则无法行驶去完成自身的任务。比如,自动驾驶车需要向左并线以便左拐,由于左路车道上的车辆之间没有保持规定的车距,自动驾驶车就无法实现向左并线。这恰恰说明,自动驾驶车一方面要严格遵守交通规则,另一方面要完成达到目的地的任务,在不确定的交通环境下,这两项目标是难以兼顾的。可见,人工智能的发展必然带来对伦理和传统规范的冲击。


深度学习算法的不安全、不可信与不鲁棒,同时给有意的滥用带来机会。人们可以恶意利用算法的脆弱性(不鲁棒)对算法进行攻击,导致基于该算法的人工智能系统失效,甚至做出相反的破坏行为。深度学习还可以用来造假-即所谓“深度造假”,通过AI的“深度造假”,可以制造出大量逼真的假新闻(假视频)、假演说(假音频)等,扰乱社会的秩序、诬陷无辜的人。


人工智能无论是被有意的滥用还是被无意的误用都需要治理,不过对这两者的治理性质上完全不同。前者要靠法律的约束和社会舆论的监督,是带有强制性的治理。后一种则不同,需要通过制定相应的评估标准和规则,对人工智能的研究、开发和使用过程进行严格的科学评估和全程监管,以及问题出现之后可能采取的补救措施等,帮助大家避免AI被误用。


从根本上来讲,人工智能的研究、开发与应用都需要以人为本,从公正、公平的伦理原则出发,做负责任的人工智能。为此,我们需要努力去建立可解释、鲁棒的人工智能理论,在此基础上,才能开发出安全、可信、可控、可靠和可扩展的人工智能技术,最终推动人工智能的公平、公正和有益于全人类的应用和产业发展。这就是我们提倡的发展第三代人工智能的思路。


人工智能研究和治理都需要全世界不同领域人员的参与与合作,除从事人工智能的研发和使用人员之外,还需要法律、道德、伦理等不同领域人员的参与。我们需要明晰伦理、道德的标准,什么是符合“道德”和“伦理”的,不同的国家、民族、团体和个人都有不尽相同的认识,因此需要全球范围的合作,共同制定出一套符合全人类利益的标准。人类是命运的共同体,我们相信通过共同的努力,一定会找到符合人类共同利益的标准。只有人工智能的研究、开发和使用人员,人人都遵守共同制定的原则,才能让人工智能健康地发展并造福于全人类。


谢谢大家!



长期招聘

加入我们丨AIIG 2022秋季学期 实习生招募计划


关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。

新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

来源 | 本文转载自世界互联网大会官网,点击“阅读原文”获取更多内容

阅读原文

* 文章为作者独立观点,不代表数艺网立场转载须知

本文内容由数艺网收录采集自微信公众号清华大学人工智能国际治理研究院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。

数字媒体艺术 新媒体艺术 张钹 人工智能

13463 举报
  0
登录| 注册 后参与评论