霍金的遗愿清单:地球要面临的风险和人工智能 热点

法律法规网 作者:dations
来源 来源: 金投网  法律法规网 时间: 2018-03-14 17:29:24  评论(/)

霍金的遗愿清单:地球要面临的风险和人工智能

【霍金的遗愿清单:地球要面临的风险和人工智能】在过去的二十年里,霍金是明星,除了继续探索宇宙理论,他也出现在各种场合,为所有关切人类命运的主题发声。而在他去世前的这几年中,霍金最关注的话题就是:离开地球和警惕人工智能。

现在我们就梳理下霍金通过各种渠道谈论这两个话题的言论。

关于离开地球,早在2011年霍金在接受美国视频共享网站BigThink访谈时就称地球将在两百年内毁灭,人类要想活命只能移民外星球。

2017年11月5日,霍金通过视频指出了人类移民太空的原因所在:一个原因是,对我们来说,地球变得太小了。在过去二百年中,人口增长率是指数级的,即每年人口以相同比例增长。目前这一数值约为1.9%。 这听起来可能不是很多,但它意味着,每四十年世界人口就会翻一番。 2022年,我将庆祝自己80岁的生日,而在我人生的这段历程中,世界人口比我出生时膨胀了四倍。这样的指数增长不能持续到下个千年。 到2600年,世界将拥挤得 “摩肩擦踵”,电力消耗将让地球变成“炽热”的火球。这是岌岌可危的。然而我是个乐观主义者,我相信我们可以避免这样的世界末日,而最好的方法就是移民到太空,探索人类在其他星球上生活的可能。

而在2017年7月,霍金就痛批美国总统特朗普退出气候问题《巴黎协定》的决定,可能将导致不可逆转的气候变化,警告称此举或将让地球变成一个金星一样的温室星球。霍金在接受BBC专访时表示,我们正在接近全球变暖不可逆转的临界点,特朗普的决定可能将地球推过这个临界点,变成像金星一样的星球,温度高达250度,并且下着硫酸雨。

tags:

站长推荐 / Recommend

最近更新 / Latest

站长推荐:

网站首页 关于我们 友情链接 广告服务 联系我们 网站地图 免责声明 WAP
Powered by LC123.NET 8.5  © 2009-2015 红火传媒
鲁ICP备11015312号-1 本站常年法律顾问 王正兴 律师
统计: