终极CGFinal · 打造精彩的设计网站
当前位置: 主页 > CG业界 > 巨头纷纷布局,AI是否即将威胁人类生存?次第

巨头纷纷布局,AI是否即将威胁人类生存?次第

发布时间:2016-09-26 23:56内容来源:终极CGFinal 点击:

巨头纷纷布局,AI是否即将威胁人类生存?

【AI世代编者按】《麻省理工科技评论》近期刊登了艾伦人工智能研究所CEO、华盛顿大学计算机科学教授奥林·艾奇奥尼(Oren Etzioni)的文章,分析了超级人工智能出现的可能性。艾奇奥尼的研究结论是,超级智能在可预见的未来还不会出现。

《斯坦福大学:2030年的人工智能与生活》最近的一份报告也探讨过该话题,关注“AI世代”微信号(tencentAI),回复“斯坦福”,可获取报告下载链接。

《麻省理工科技评论》中发表的文章与报告观点基本类似,以下为文章全文:

如果你了解过关于人工智能的各种观点,那么可能会非常担心“超级智能”,或者说“杀手人工智能”的出现。近期英国《卫报》警告称,“我们就像是在玩炸弹的小孩”,《新闻周刊》则指出“人工智能正在到来,有可能彻底消灭我们”。

在伊隆·马斯克(Elon Musk)和史蒂芬·霍金(Stephen Hawking)等人观点的支撑下,许多媒体都有过这样的报道。实际上,这种观点来自一个人的研究成果:英国教授尼克·博斯特罗姆(Nick Bostrom),哲学著作《超级智能:道路、危险和策略》的作者。

博斯特罗姆是牛津大学哲学家,而对风险的量化评估则是保险精算学的领域。他或许被认为是全球首位“精算哲学家”。考虑到哲学是一种概念论证学科,而风险评估则是由数据驱动的统计学工作,因此这样的头衔显得很矛盾。

那么,数据告诉我们什么?2011年,作为希腊人工智能协会的成员,博斯特罗姆参加了在希腊塞萨洛尼基举办的“人工智能哲学和理论”大会。当时,他整理了4项调查的结果,并给出了人脑水平人工智能在不同时间点出现的可能性:

2022年:10%。

2040年:50%。

2075年:90%。

关于人脑水平人工智能的发展,博斯特罗姆撰写了一份300页的哲学论证,而这4项调查是最主要的数据来源。

为了更准确地评估行业领先研究者的意见,我寻求了美国人工智能协会(AAAI)会士们的帮助。这些研究员对人工智能的研究做出了重要而持续的贡献。

2016年3月初,AAAI帮我发出了一份匿名调查问卷,向193名会士提出了以下问题:“在他的书中,尼克·博斯特罗姆将超级智能定义为‘在各个实际领域,包括科学创造力、一般常识和社会技能等方面,比最出色人脑还要更聪明的智能’。你们认为,我们何时将会看到超级智能?”

在随后的一周多时间里,80名会士做出了回复(回复比例为41%)。他们的回复总结如下:

92.5%的受访者认为,在可预见的未来超级智能不会出现。这一观点也得到了许多会士书面内容的支持。

即使调查是匿名的,44名会士仍决定实名回复。这其中包括深度学习先驱吉奥夫·辛顿(Geoff Hinton)、来自斯坦福大学的图灵奖获得者埃德·菲恩鲍姆(Ed Feigenbaum)、领先的机器人专家罗尼·布鲁克斯(Rodney Brooks),以及谷歌()的皮特·诺维格(Peter Norvig)。

受访者也给出了更多看法,摘录如下:

“可能还需要超过25年时间。更有可能还要几个世纪。但不可能永远无法实现。”

“我们正在与人脑数百万年的进化展开竞争。我们可以编写单一目的程序,匹敌人类,有时甚至胜过人类。然而,世界并不是由多个单一问题组成的。”

“尼克·博斯特罗姆是职业恐慌传播者。他的研究所扮演的角色就是寻找人类的现存威胁。他在各种地方都能看出威胁来。我倾向于将他称作人工智能领域的特朗普。”

这种调查的科学价值有限。问题表述和受访者的选择都可能会对结果带来影响。然而,这也是博斯特罗姆参考的一种数据来源。

另一种研究方法是根据人工智能当前的发展去推断未来的趋势。然而这也很困难,因为我们还无法确定当前人脑水平智能的量化指标。我们已经在象棋和围棋等领域实现了超级智能,但正如艾伦研究所的研究显示,我们的程序在美国8年级科学考试中还无法及格。

关于人工智能我们有很多方面的担心,无论是对就业岗位的影响,还是自动化武器系统,甚至超级智能的潜在风险。然而,当前的数据并没有表明,超级智能将在可预见的未来诞生。与此同时,悲观预测通常没有看到人工智能给人类带来的帮助,例如预防医疗失误和减少汽车事故。

此外,人类未来有可能与人工智能系统合作,开发出共生的超级智能。这将与博斯特罗姆设想的有害的超级智能存在很大不同。(编译/李玮)

推荐:关注“AI世代”微信号(tencentAI),回复“斯坦福”,可获取《斯坦福大学:2030年的人工智能与生活》报告下载链接。

巨头纷纷布局,AI是否即将威胁人类生存?

顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------