- 0
- 0
- 0
分享
- 张钹院士:我们正处在AI算法不可控的危险状态
-
2022-08-22
张钹
中国科学院院士、清华大学人工智能研究院名誉院长、人工智能国际治理研究院学术委员会委员、我国人工智能奠基人
8月19日,2022世界机器人大会主论坛正式开幕,期间,有三位院士到场,就“未来机器人:目标、路径和挑战”的主题进行了一场深刻的谈话。
三位院士分别为中国科学院院士,清华大学计算机系教授、清华大学人工智能研究院名誉院长 、人工智能国际治理研究院学术委员会委员,微软亚洲研究院技术顾问的张钹;中国工程院院士、机器人技术国家工程研究中心主任,辽宁省科学技术协会主席,北京邮电大学自动化学院王天然;中国科学院院士,中国科学院自动化研究所研究员、机器人理论与应用专家乔红。
短短一个小时内,三位机器人领域的顶尖专家就人工智能与机器人的区别、智能机器人的未来、为什么要人机共融、机器人目前面临的伦理思考等多个话题进行了探讨。
人工智能与机器人的区别
在会上,张钹提到,第二代人工智能的算法是利用深度神经网络和对数据的训练来形成人工智能的,而纯粹靠数据驱动的方法必然不可解释、不可靠,因此即使机器人的智能还很低,但人工智能算法的不可控仍然可能使人类处于危险状态。
在很多人的印象里,“机器人”和“人工智能”好像是两个不分家的概念,甚至于现在的机器人只要一被提起,就自带“智能”的先天属性。然而,在张钹看来,机器人和人工智能是两个完全独立的领域。
“最明显的一点,它们的目标完全不同。人工智能是用机器来模仿人类的智能行为,追求的是机器行为与人类行为的相似性,甚至是越相似越好;而机器人则是为了协助人类完成一些本来是由人来完成的任务,追求的是完成任务或者人类信任。”张钹说。
而在这个以机器人为核心主题的世界机器人大会上,张钹也详细科普了机器人的三大主要研究内容:
执行结构;机器人的目的就是要(在物理世界里)完成任务,所以必须要有执行机构,这种机构可以是仿真动物,也可以建立在电机和齿轮传动的基础上。而这项内容在人工智能领域中就不一定要做。
能源;尤其是针对移动机器人,高效的能源是关键问题。
智能控制;这部分是一个“大口袋”,包括控制、人工智能、传感器和环境感知。
张钹表示,机器人的三大主要研究内容里,只有“智能控制”部分与人工智能有所重叠,这也就是为什么他认为说人工智能包含机器人,或者机器人包含人工智能都是不对的,这本身就是两个追求目标不同的学科。“所以我认为这两个领域的名字也起得不好,‘机器人’这个名字让大家误解成它是一个人或者必须像人;人工智能则让人家以为人工智能做智能的,但实际上人工智能只能在模仿智能行为,即智能的外部表现,并非在模仿智能。”张钹补充道。
智能机器人的未来
他也谈到了机器人的未来,同人工智能领域近些年热议的“通用人工智能”一样,机器人领域也有相似的争论:即系统是否需要具备一定的通用性,去完成很多任务?
在张钹看来,这个问题在人工智能领域是有讨论的必要性的,但是在机器人领域之中,没有必要做一个通用机器人去代替人,因为机器人本身就是为了完成一定的任务而制造的,比如专门做手术、专门举重等等,基本表现都是专用的,那么就不必让一个手术机器人去扛重。所以他预言,将来会使多种多样的智能机器人出现,每个机器人来完成一定或一类工作。
机器人目前面临的伦理思考
而要谈到机器人与人类的关系,那么必然还会面临另一个问题:伦理。
阿西莫夫认为,关于机器的伦理问题有两个需要思考的方面:机器人如果智能超过人类,或有意识以后,我们应该如何让机器人按照伦理准则来行为;人类如何按照伦理原则来设计和使用机器人。
张钹认为,上述两个方面表面看起来简单,实际上却关系到三大难题:
首先是标准和法规问题:什么是道德?什么时候不道德?这本身就有非常大的争议
对于人类来说,有人会在设计使用机器人的时候遵守伦理原则,但有些人不会
如果假设道德规范有了,还有涉及到机器人行为是否可控
张钹展开说明了第三个问题,他表示,如果机器人完全按照规则来执行,那就不是智能机器人,只有人类制造者给予了它一定的自主性,机器才能有创造性,才能逐渐学会自主解决问题,而这必然就要付出一个代价——机器人可能会不受控制。张钹说:“当20世纪人工智能发展起来以后,虽然机器人还处在智能很低的阶段,但我们已经处在了一个危险状态,为什么呢?因为我们处于不可控状态,比如说用深度学习的方法开发出来的人工智能算法没有可靠性保证的。”
张钹最后提到了人工智能的三次浪潮:第一次是1956年到1974期间的人工智能1.0,科学家将符号方法引入统计方法中进行语义处理,出现了基于知识的方法;20世纪80年代初至20世纪末则是人工智能2.0,与人工智能相关的数学模型取得了一系列重大发明成果,进一步催生了能与人类下象棋的高度智能机器;而从21世纪初开始至今,人工智能3.0的浪潮正在掀起。
“我们要提出来第三代人工智能,必须要解决第二代人工智能的算法不安全、不可靠、不可信、不可控的状态或问题,而这种担心现在看起来已经是一个近忧,而并非远虑了。”
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
来源 | 本文转载自今日头条,点击“阅读原文”获取更多内容
-
阅读原文
* 文章为作者独立观点,不代表数艺网立场转载须知
- 本文内容由数艺网收录采集自微信公众号清华大学人工智能国际治理研究院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。