霍金去世 两大遗愿曝光[图]

+

A

-
2018-03-14 01:20:28

英国当地时间3月14日,著名物理学家史蒂芬·霍金去世,享年76岁。而在他去世前的这几年中,霍金最关注的话题以及未完成的遗愿是:离开地球和警惕人工智能。

霍金(Stephen William Hawking)的子女在一份声明中说:“我们亲爱的父亲今天去世了,我们深感悲痛。”声明称,霍金“是一个伟大的科学家,一个不平凡的人,他的研究和成就的影响将持续多年”。

霍金的研究领域是引力与黑洞。他的主要贡献有两个:奇点定律(1970年)与霍金辐射(1974年)。

霍金去世成为全球焦点(图源:VCG)

在过去的几十年里,霍金是明星,除了继续探索宇宙理论,他也出现在各种场合,为所有关切人类命运的主题发声。

关于离开地球,早在2011年,霍金在接受美国视频共享网站BigThink访谈时就称地球将在两百年内毁灭,人类要想活命只能移民外星球。

2017年11月5日,北京腾讯WE大会的现场。霍金通过视频指出了人类移民太空的原因所在:一个原因是,对我们来说,地球变得太小了。

而在2017年7月,霍金就痛批美国总统特朗普(Donald Trump)退出气候问题《巴黎协定》的决定,可能将导致不可逆转的气候变化,警告称此举或将让地球变成一个金星一样的温室星球。霍金表示,我们正在接近全球变暖不可逆转的临界点,特朗普的决定可能将地球推过这个临界点,变成像金星一样的星球,温度高达250度,并且下着硫酸雨。

在2017年6月播放的纪录片《远征新地球》中,霍金说,在未来一百年内,人类为生存必须离开地球,在太空寻求新家。

离开地球,霍金也不是光嘴皮子吓唬吓唬大家,2016年4月12日在纽约宣布启动“突破射星”计划,将同俄罗斯商人尤里·米尔纳(Yuri Milner),以及美国社交网站面簿创始人兼总裁扎克伯格(Mark Zuckerberg)合作建造能以五分之一光速飞往比邻星的微型星际飞船。

除了地球即将面临的各种风险,霍金更关切人类正在创造一个毁灭自己的怪物:人工智能(AI)。人工智能将对人类造成难以控制的威胁,这是霍金对人类发出的警告。

霍金多次警告机器人“起义”的危险。按照他的说法,一场潜藏的威胁正在硅谷的技术实验室中悄悄酝酿,人工智能伪装成数字辅助设备和自动驾驶的交通工具,正在人类社会中逐渐站稳脚跟,它们或许有朝一日将导致人类的终结。

对于人工智能,霍金有以下五点深刻的思考。

一、人工智能的真正风险不是它的恶意,而是它的能力。一个超智能的人工智能在完成目标方面非常出色,如果这些目标与我们的目标不一致,我们就会陷入困境。

二、人工智能对人类的影响,可以从短期、长期两方面来分别讨论。短期担忧是智能自主武器、隐私。人工智能的全方位发展可能招致人类的灭亡。比如最大化使用智能性自主武器。除此之外就是隐私的担忧。由于人工智能逐渐开始解读大量监控数据,这些都会被机器人洞察得一览无余。

三、长期担忧是人工智能系统失控的潜在风险。人工智能遵循的一个逻辑是,“计算机在理论上可以模仿人类智能,然后超越”,这一天很快会到来。

四、人工智能的成功有可能是人类文明史上最大的事件。但人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。所以,监管和立法在人工智能的发展过程中十分重要。

五、人类面临的最大威胁是我们自身的弱点,即贪婪和愚蠢。这些人性的基本属性,将使在人工智能时代的境况将变得更加糟糕,因为当机器被设定程序后就知道适可而止,知道激流勇退,但是人类很难,除非是那些极高修为的人,才能突破人性的弱点,但是机器人可以轻而易举地回避这些弱点。

综编:京京

评论

【声明】评论应与内容相关,如含有侮辱、淫秽等词语的字句,将不予发表。