首页 | 中国 | 国际 | 财经 | 港股 | 体育 | 教育 | 健康 | 数码 | 反腐 | 舆情 | 文化 | 博客 | 微博 | 装备技术

GMIC霍金:人工智能可能是人类文明史的终结

时间:2018-05-30新闻来源:互联网

  由全球最具影响力的移动互联网合作平台长城会出品的GMIC全球移动互联网大会今天正式开幕了,GMIC作为全球规模最大、最具影响力的移动互联网行业盛会,开展至今已经吸引了全球超过70个国家的累计近百万人次参加。大会首日最令人期待的,无疑是霍金关于“探讨科学发现和科学合作的未来”的视频演讲了。

  霍金在25日的微博中写道,“我期望,我的话语以及其他科学家们的演讲能启发更多的人热爱科学,为科学创新的未来献出自己的一份力。” 今天的《让人工智能造福人类及其赖以生存的家园》演讲,霍金在肯定人工智能取得的一系列成就的同时,也提出了“人工智能也有可能是人类文明史的终结”。

  霍金在演讲中对近几年人工智能领域的发展给予了充分的肯定,并提到自主驾驶汽车,以及人工智能赢得围棋比赛都具有里程碑式的意义。关于未来人工智能的发展,霍金认为目前所取得的成就,和未来几十年后可能取得的成就相比必然相形见绌,并表示关于未来会取到怎样的成就是目前无法预测的。

  但是,霍金对于人工智能机所存在的种种不确定性,也提出了自己的独到见解,“人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令。我们正在焦急的等待协商结果。目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。”

  演讲结束后,霍金回答了李开复关于如何约束互联网巨头利用用户隐私获得暴利的问题,霍金说,“任何涉及到私人信息的使用都应该被禁止。会有助于隐私保护的是,如果互联网上所有的信息,均通过基于量子技术加密,这样互联网公司在一定时间内便无法破解。但安全服务会反对这个做法。”

上一篇: 移动5月启动新一轮提速降费 这诚意打几分 下一篇:NBA与新浪微博合作 到底是谁想借势而起