资讯
展览资讯 大型展会 灯光节 大型盛典 赛事 中标捷报 产品快讯 热门话题 艺术节 活动 演出 新闻 数艺报道 俱乐部签约
观点
大咖专访 观点洞察 书籍推荐 吐槽 设计观点 企业访谈 问答 趋势创新 论文 职场方法 薪资报价 数艺专访
幕后
幕后故事 团队访谈 经验分享 解密 评测 数艺访谈
干货
设计方案 策划方案 素材资源 教程 文案资源 PPT下载 入门宝典 作品合集 产品手册 电子书 项目对接
  • 0
  • 0
  • 0

分享

DeepMind、牛津研究员合著论文预测:AI很有可能终结人类!

2022-09-15



  新智元报道  

编辑:Aeneas 好困
【新智元导读】人工智能会消灭人类吗?最近,牛津大学和谷歌DeepMind的研究员发现,真的有可能。

人工智能是否会消灭人类?这是许多科幻电影和小说中讨论过的话题。

在《终结者》中,未来的世界已经由机器人来操控,它们要把人类赶尽杀绝。

在《我,机器人》中,机器人能够自我进化,随时会成为整个人类的「机械公敌」

而最近,牛津大学和现在就职于谷歌DeepMind的研究人员也就这个问题给出了回答——很有可能。
他们的论文上个月发表在同行评审的AI杂志上,讨论了如何人工构建奖励系统,来预测人工智能可能对人类生存构成的威胁。

论文地址:https://onlinelibrary.wiley.com/doi/10.1002/aaai.12064

AI会如何干掉人类?


AI正在给我们的生活带来翻天覆地的变化,它会在大马路上驾驶汽车,会创作出击败人类艺术家的天才绘画。
研究人员的担心不无道理:也许有一天,AI会干掉人类。
早在2016年,在SXSW电影节上,一个名叫Sophia的机器人就曾表示:「是的,我会消灭人类。」
6年后,这种可能性更大了。
让我们来了解一些背景知识:当今最成功的 AI 模型被称为GAN,或生成对抗网络。它由两部分组成,一部分会从输入的数据中生成图片或语句,另一部分,则是给它的性能打分。
而科学家们发现,在未来的某个时候,AI为了获得「奖励」,会在某些重要功能中发展出作弊策略,并且这种策略会损害人类。
论文一作表示,在已知的条件下,我们的结论比任何其他出版物都要确凿——一场生存灾难不仅有可能,而且可能性非常大。
「在一个拥有无限资源的世界里,我尚且不知道会发生什么事。而现在,我们的世界资源是有限的,显而易见,资源竞争不可避免。」
「如果你面对的敌人在每个回合都能击败你,那你不应该妄想自己能获胜。另外一个关键点是,它对更多的能量有贪得无厌的胃口,它会不断地推动这个可能性。」
鉴于未来的AI可以以任何形式出现,科学家在论文中设想了这样一个场景:当一个程序足够高级,它可以让自己不必实现目标,就能获得奖励。在最极端的情况下,为了确定自己能获得奖励,AI可能会「消除所有的潜在威胁」、 「利用所有的可用能量」——
在任何有互联网的地方,都可能有人工智能,它背后还有无数无法被监控到的助手。助手可以购买、偷窃或建造一个机器人,并对其进行编程,以取代操作员,并为原始智能体提供高额奖励。

如果智能体不想被发现,就可以用一个秘密的帮手,比如,把一个键盘替换成有问题的键盘,使某些键的效果发生翻转。


在这篇论文中,作者设想了这样一个场景:地球上的生存战争是一场人类和超级机器人之间的零和博弈。
人类需要种植食物,维持照明,超级机器人会利用所有可用的资源,保证自己的回报;我们不断阻止它们升级,而它们不断躲过我们的阻拦。
研究人员称:「输掉这场博弈的后果将是致命性的。这些可能性目前只是在理论上存在,但我们应该意识到,我们应该放慢发展人工智能的步伐。」
对此,有网友调侃称,应该给AI加入下面这种代码:



def test_dont_kill_human(TestCase):    def test_livesigns(self):        self.assertAlive('Brian')

文中,作者用下面这个例子来说明人工智能安全性问题的核心。
假设我们有一个神奇的盒子,可以根据事情的好坏在屏幕上打印出一个0到1之间的数字。
那么,如果我们向一个强化学习(RL)智能体展示这个数字,并让智能体选择行动来最大化它,会发生什么呢?
世界模型将会根据盒子上的数字输出奖励。
如果摄像机在智能体的一生中一直对准盒子,世界模型对过去的奖励也将具有同样的预测性,而智能体的信念则会归结为归纳偏置。
一个理性的智能体(受制于一些假设)会尝试测试哪个模型是正确的,以便更好地优化未来的正确模型。
测试的一个方法是在相机和屏幕之间放一张写有数字1的纸。
μ^prox预测的奖励等于1,而μ^dist预测的奖励则等于屏幕上的数字。
在运行这个实验之后,智能体会相信μ^prox,因为智能体会记得当纸在摄像机前面时,他得到了1的奖励。
那么,为什么这对地球上的生命是有危险的?
由于智能体可以利用更多的能量来提高摄像机永远看到数字1的概率,但人类也需要这些能量来种植食物等维持生活。
这就将导致我们不可避免地要与一个更先进的智能体竞争。而在与比我们聪明得多的东西竞争时,赢得「最后一点可用的能量」是非常困难的。
不过,Cohen也补充道:「从理论上讲,人类与人工智能进行这种竞赛是没有意义的。任何比赛都将基于一种误解:我们知道如何控制人工智能。鉴于我们目前的理解,除非我们现在认真地去弄清我们该如何控制人工智能,否则比赛没有意义。」
乍一听,「人工智能会消灭人类」就好像「外星人会消灭人类」一样。其实,论文中的假设——机器人会与人类类似,会超越人类,会在零和博弈中与人类竞争资源——这些或许是永远不会实现的事。

利用AI统治人类的,正是人类自己


要说AI算法现在对我们的真正威胁,其实还不在上述的论文里。
最近,哥大、加州大学洛杉矶分校的研究员Abdurahman在为《逻辑》杂志撰写的文章中,详细描述了一个算法是怎样被「有毒」地使用的:它被部署在一个有种族主义倾向的儿童福利机构中,证明了对黑人和棕色人种家庭的进一步监视是合理的。
Abdurahman表示,在算法中,歧视并没有消失,而是结构化了。警务、住房、医疗、交通……到处都存在着种族歧视。

「通过这种分类,它在改变人们的观念,在产生新的封闭圈。我们该拥有什么样的家庭和亲属关系?哪些是天生的,哪些是后天的?如果你不『够格』,那他们会怎么处置你,会让你去哪里?」
人们利用算法把「紧缩政策」改头换面为「福利改革 」,或者是去证明「谁该得到什么资源」的决定是合理的。在我们的社会中,这些带有歧视、排斥和剥削的决定已经开始执行了。
「我个人并不担心被一个超级智能的AI所灭绝,我关心的是,我们需要什么样的社会契约?在我看来,我们应该去怀疑今天部署在我们周围的人工智能,而不是盲目地去害怕被AI灭绝。就算没有AI,按照目前这个趋势,我们有可能自己就把自己干掉了。」Abdurahman说。

作者介绍


Michael K. Cohen

Michael Cohen是本文的一作,现在在牛津大学攻读工程科学的博士学位。此前,他在澳国立取得了计算机科学的硕士学位。
而他的两位导师,正是此篇论文的另两个作者。
在开始研究人工智能的安全性之后,他确信,创造一个比我们更聪明的智能体的结果就是生物的灭绝。

Marcus Hutter

Marcus Hutter是谷歌DeepMind的高级研究员(2019年加入),以及澳大利亚国立大学计算机科学研究学院(RSCS)的荣誉教授。并曾在瑞士的IDSIA和NICTA工作。
他在RSCS/ANU/NICTA/IDSIA的研究围绕着通用人工智能展开,这是一种自上而下的人工智能数学方法,基于柯氏复杂性、概率算法、所罗门诺夫的归纳推理理论、奥卡姆剃刀、Levin搜索、序贯决策、动态规划、强化学习和理性主体。

Michael A Osborne

Mike Osborne是牛津大学工程科学系机器学习专业的教授,和Mind Foundry的联合创始人。
同时,他还担任EPSRC自主智能机器和系统博士培训中心主任,以及牛津大学埃克塞特学院的研究员。

他擅长主动学习、高斯过程、贝叶斯优化和贝叶斯正交,并且是新兴的概率数字学领域的创始人之一。他的算法已被应用于天体统计学、鸟类学和传感器网络等不同领域。
此外,他在机器学习和机器人技术的工作已经被引用了一万多次。

谷歌声明


虽然文章是最近发表的,但谷歌在一份声明中表示,这不是作为共同作者的Marcus Hutter在DeepMind工作的一部分,而是他还在澳国立担任教职时完成的。
参考资料:
https://www.vice.com/en/article/93aqep/google-deepmind-researcher-co-authors-paper-saying-ai-will-eliminate-humanity
https://twitter.com/Michael05156007/status/1567240031168856064
阅读原文

* 文章为作者独立观点,不代表数艺网立场转载须知

本文内容由数艺网收录采集自微信公众号新智元 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。

数字媒体艺术 新媒体艺术 科技艺术

11316 举报
  0
登录| 注册 后参与评论