正文内容 评论(0)
人工智能技术的发展越来越快,人们在欣喜的同时,也始终没有放下对人工智能的忧虑,如果有一天真的出现超越人类智慧的机器怎么办?据报道,上个月,英国剑桥大学还真的就成立了一个“生存风险研究中心”,以预防未来可能出现的“天网危机”。
在《终结者》系列电影中,天网是一个人类于20世纪后期创造的以计算机为基础的人工智能防御系统,最初是研究用于军事的发展。而在天网在控制了所有的美军武器装备后不久便获得了自我意识,并且认定人类是它存在的威胁,开始实施灭绝人类的一系列行动,“天网危机”由此而来。
而在上个月,英国剑桥大学的一组科学家、哲学家和工程师宣布他们将成立新的生存风险研究中心(Centre for the Study of Existential Risk/CSER),以研究对人类有“灭顶之灾”的人工智能技术的发展,应对可能的“天网危机”。研究的重中之重是创建人工智能的可能性,从理论上来说,人工智能有可能将人类永远落在后面。
超过人类智慧的机器,有能力创造自己的计算机程序和技术,这被称为人工通用智能(AGI)。此概念最初于1965年得到数学家、密码员、计算机科学家欧文·约翰·“杰克”·古德(Irving John "Jack" Good)的支持。当“智能摆脱生物学的束缚时,”胡·普赖斯(Huw Price)表示,人工通用智能的出现将标志着人类不再是地球上最聪明的物体,因此,人类将可能不再是对“未来的主宰”力量。
Skype的创始人之一家安·塔林(Jaan Tallinn)探讨了这一点的重要性,他指出通过理解和操作技术,人类已“抓住40亿年前自然进化的缰绳……(而且已经)在整体上取代了进化这种决定未来的主导力量。”你只需看看我们对地球的影响,就能想到如果我们不再占据对地球的统治地位,将会发生什么事情。
此外,来自人工通用智能的威胁不是以存在敌意为先决条件的。普赖斯举出大猩猩种群没落的例子。灭顶之灾并不由人类的敌意承担,而是存在于最合适我们环境的操作方式中。这严重威胁了他们的生存,尽管是无意的。人工智能更聪明,它可能会在自己和人类之间创建一个类似的范例。
不过,我们可能离发明这种超级智能的机器还有一段距离,最近的研究揭示了这种可能性的大小。去年,麻省理工学院进行了一项实验,测量计算机学习语言的能力。在测试中,要求两台计算机在一份指令手册的帮助下完成两项陌生的任务。一台机器在只装备了一组可能的行为,没有事先了解语言指令或任务的情况下,能完成其安装软件的任务,准确率为80%。另一台机器能够学会玩《文明2》战略游戏,获胜率为79%,令人印象深刻。
这只是大量人工智能研究实例中的一个,斯坦福等大学都在开展相关研究项目。在这样一个计算芯片的能力每两年就翻倍的世界里,几乎一切都由技术控制,我们很可能将看到人工智能研究项目有卓越发展。
即使有了这些证据,人工智能的概念还是有点科幻小说的感觉,让人难以认真对待。CSER的团队相信这是问题的一部分,他们表示:“目前,在某种程度上来说我们对人工智能知之甚少,它存在显著的风险,但是如果出于社会学原因,人工智能仍处于‘认真’研究的范围之外,这也是一个额外的危险。”
另外,研究人员不会只关注阻止像天网一样的灾难,还会研究许多其他对人类构成威胁的情况,包括生物纳米技术的发展和极端气候变化的影响。
尽管CSER不是约翰·康纳率领的反抗军,但是有了他们的努力,也许我们的未来会感觉稍微安全一些。
本文收录在
#黑客
- 热门文章
- 换一波
- 好物推荐
- 换一波
- 关注我们
-
微博:快科技官方
快科技官方微博 -
今日头条:快科技
带来硬件软件、手机数码最快资讯! -
抖音:kkjcn
科技快讯、手机开箱、产品体验、应用推荐...