- 0
- 0
- 0
分享
- 张钹出席2022世界机器人大会 | “技术+约束”突破机器人发展伦理瓶颈
-
2022-09-07
张钹
中国科学院院士、清华大学人工智能研究院名誉院长、人工智能国际治理研究院学术委员会委员、我国人工智能奠基人
在机器人产业大踏步发展的同时,机器人伦理是一道无法回避的问题。特别是在当前人工智能迅猛发展的大背景下,曾经的“远虑”似乎日益成为“近忧”。机器人发展前景是什么?它与人类的关系会朝着哪个方向发展?如何应对智能机器人带来的潜在伦理风险?
在近日举行的2022年世界机器人大会领航峰会上,这一话题受到多位与会院士专家热议。
✦
✦
01
人机融合“宛如同类”
“机器人必须不危害人类,也不允许它眼看人将受害而袖手旁观;机器人必须绝对服从于人类,除非这种服从有害于人类;机器人必须保护自身不受伤害,除非为了保护人类或者是人类命令它作出牺牲。”
早在上世纪50年代,美国科幻小说家阿西莫夫就在小说《我是机器人》中对相关机器人研究“约法三章”。如今,距离阿西莫夫提出的“机器人三守则”已经过了70余年,人们对机器人与人的关系问题仍有困惑。
中国科学院院士、清华大学人工智能研究院名誉院长张钹表示,首先在标准和法规方面,关于什么是道德,本身有很多争议和困惑。其次,对机器而言,即便给定道德规范,能否遵守还取决于其行为是否可控。再者,这还与设计、使用机器人的人是否遵守伦理原则相关,即便人类遵守相关原则,技术的鲁棒性有时也很难预测。“一个最常见的例子是,一辆车刹车失灵,继续往前行驶可能撞上五个人,如果打舵会撞上另外一个人,究竟打不打舵呢?”张钹说,类似的道德困境等因素给机器人伦理问题带来诸多挑战。
以当前研究最广泛的深度学习为例,张钹还表示,作为一种模式识别方式,它让机器人的识别率大幅提高,但这种纯粹靠数据驱动的方法鲁棒性并不稳定,会引起人类未曾预料到的安全问题。
02
智能“发育” 赋能安全
实际上,自从上世纪50年代人工智能的概念被提出后,“弗兰肯斯坦”式的担忧就一直存在:机器发展出意识,在智能上超过人类,让人们失去对它的控制。但20世纪人工智能的发展表明,现实并非如此。
“第一代人工智能的主要方法是知识驱动,第二代人工智能主要是数据驱动,这两个办法都有片面性。必须把这两个方法加起来,知识和数据共同驱动,结合起来形成第三代人工智能技术,才有可能发展出可靠、安全、具有可信性的人工智能。”张钹说,这是目前的整体趋势,将有助于发展出更可信的智能机器人。
03
机制约束 增强治理
“实际上,机器人不是人,它必须完成一定任务;人工智能则是用机器模拟人类的智能行为,而非模拟智能。”张钹说。他强调,现实中人工智能和机器人两个领域经常会被大家误解,比如机器人的名字往往使人产生它必须像人的误解;而人工智能也常被认为是做智能的,实际上目前人们对智能的了解非常少,只能模仿智能行为、智能外部表现。
张钹也表示,对机器人伦理问题的关心,本质上是对设计和使用机器人的人自身伦理问题的关心:一方面,设计过程中对机器人可能产生的正面和负面影响是否能够进行充分的客观评估;另一方面,是否会滥用和误用机器人。
对此,他对从事从设计到管理智能机器人的年轻人提出几个期望。例如,研究可进行逻辑、因果、伦理分析的新工具,更好地预测伦理结果;利用深度学习对道德、不道德行为给出样本,对无法定义的道德问题,可进行数据标注学习;通过实验和模拟(如无人车)发现、逐步解决问题。从技术层面,解决安全性、伦理等问题。
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
来源 | 本文转载自科学网新闻,点击“阅读原文”获取更多内容
-
阅读原文
* 文章为作者独立观点,不代表数艺网立场转载须知
- 本文内容由数艺网收录采集自微信公众号清华大学人工智能国际治理研究院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。