据外媒报道,虽然史蒂芬·霍金(Stephen Hawking)一直以来都在警告人工智能蕴含的各种危险,但他最近却出人意料地出席了一个人工智能研究中心的成立仪式,并且发表了演讲。
每当霍金发话,人们总会侧耳倾听。
最近几年,霍金针对人工智能发表了一系列令人颇感恐慌的警告。他在2014年接受BBC采访时说:“人工智能的全面发展将宣告人类的灭亡。”正因如此,当这位全球最著名的科学家祝贺一个新的人工智能研究中心的成立时,全世界都颇感意外。
霍金在剑桥大学利弗休姆未来智能研究中心(Leverhulme Centre for the Future of Intelligence,以下简称“CFI”)的成立仪式上发表了演讲。虽然他缓和了对人工智能的态度,但并没有改变基本观点。
“对人类而言,强大的人工智能技术的崛起可谓‘不成功,则成仁’。”他说,“但究竟是‘成功’还是‘成仁’,目前还不清楚。”
霍金的态度之所以稍微有所缓和,可能是源自这个研究中心的使命。CFI的工作并不是开发人工智能技术,而是评估人工智能对人类文明产生的影响,从而对由此产生的好处和威胁提前做出应对,并就相应的公共政策提出建议。
CFI获得了利弗休姆信托基金1000万英镑的拨款,这家机构为全英国的众多研究项目提供资金。CFI汇聚了全球4所顶尖高校的力量,包括剑桥大学、牛津大学、加州大学伯克利分校和伦敦帝国理工学院,他们计划建设一个国际化的跨学科研究团队。CFI还将与政府和产业界展开合作,就具体问题制定相应的计划——例如,针对自动化武器制定监管政策。
根据剑桥大学发布的官方新闻稿,该研究中心在第一个“3年计划”内将着眼于7大项目,最初一批项目包括:
——智能的科学、价值和未来
——政策与负责任的创新
——探究自动化武器的监管政策
——信任与透明
学术界似乎都在为人工智能的进步做好准备,而政府也在积极筹备相关工作。例如,美国白宫就在10月12日发布了长达60页的相关报告
除了CFI之外,最近还诞生了另外几个以人工智能为主要研究方向的智库。例如,美国马萨诸塞州的未来生活研究所(Future of Life Institute)和牛津大学的人类未来研究所( Future of Humanity Institute)。
特斯拉创始人伊隆·马斯克(Elon Musk)的OpenAI组织虽然明确以人工智能技术为开发方向,但对人类文明本身也怀有更大的担忧。该机构的网站写道:“我们的使命是开发安全的人工智能技术,确保人们可以尽可能广泛而平均地受益于此。”
即便单纯从公关角度来看,霍金对这座新研究中心的背书也非常重要。作为全球最著名的科学家,霍金拥有无与伦比的影响力。
以下为霍金当天的演讲全文:
很高兴今天能够参加这座新的研究中心的成立仪式。我们花了很多时间研究历史,但不得不承认,人类的历史多半是一部愚蠢史。所以很高兴人们转而把研究方向转向了智能的未来。
智能是人类之所以成为人类的关键因素。人类文明的一切成就都是人类智能的产物:从学习取火和种植食物到理解宇宙,无一例外。
我相信,生物大脑与电脑所能达到的成就并没有本质的差异。因此,从理论上讲,电脑可以模拟人类智能,甚至可以超越人类。
人工智能研究目前的进展很快。从无人驾驶汽车到电脑在围棋中战胜人类顶尖选手,这一系列标志性事件都预示着未来的走向。海量资金正在涌入这一领域,与今后几十年的进步相比,如今的成就必然相形见绌。
人工智能的潜在利益十分巨大。当我们本身的思维都要靠人工智能来扩充时,我们就无法预测未来的成就。凭借着这场新的科技革命带来的工具,我们或许能够挽回上一场工业化革命给自然界带来的破坏。我们也希望最终消除疾病和贫困。我们生活的方方面面都将改变。简而言之,成功创造人工智能将成为人类文明史上最重大的事件。
然而,这也有可能成为最后一个重大事件——除非我们学会如何规避风险。除了各种好处外,人工智能还将带来危险,包括强大的自动化武器,或者帮助少数人欺压普通大众的方法。这将对我们的经济造成巨大破坏。人工智能未来还将发展出自己的意志——这种意志将与人类的意志产生冲突。
简而言之,对人类而言,强大的人工智能技术的崛起可谓“不成功,则成仁”,但究竟是“成功”还是“成仁”,目前还不清楚。正因如此,我与其他几个人在2014年呼吁对这一领域展开更多研究。我很高兴有人听从了我的建议!
这个中心所开展的研究对于我们的文明和我们这个物种的未来至关重要。我真心祝福你们!
来源:腾讯科技
链接:http://tech.qq.com/a/20161026/028155.htm
本文采用「CC BY-SA 4.0 CN」协议转载自互联网、仅供学习交流,内容版权归原作者所有,如涉作品、版权和其他问题请给「我们」留言处理。