霍金与爱因斯坦“忌诞同日”:两大遗愿揭示人类命运

+

A

-
2018-03-14 04:39:18

综合媒体报道,英国知名物理学家史蒂芬·霍金(Stephen Hawking)于今日(3月14日)去世,享年76岁。非常巧合的是,今天恰好是另一位伟大的物理学家爱因斯坦(Albert Einstein)的诞辰。

霍金表示,制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日(图源:VCG)

很多人说,霍金的离世意味着一个黄金时代的终结。斯人已去,但他留给世人的精神与知识都是全人类共有的宝贵遗产。在过去的二十年里,霍金除了继续探索宇宙理论,也出现在各种场合,为所有关切人类命运的主题发声。在近几年中,霍金最关注的话题便是离开地球与警惕人工智能。

关于离开地球,早在2011年霍金在接受美国视频共享网站BigThink访谈时表示,人类如果想一直生存下去,就必须从地球出走,移民到其它星球上居住。因为地球将会受到战争、资源殆尽、人口过剩等不确定因素的威胁而在1,000年内毁灭。故而人类不能将赌注押在一个星球上,而应着眼整个宇宙。此外,霍金还曾于2017年11月5日举办的“北京腾讯WE大会”的现场通过视频指出,在过去二百年中人口增长呈指数级增长。这意味着,每四十年世界人口就会翻一番。 到2022年,世界人口比霍金出生时膨胀了四倍。这样的指数增长不能持续到下个千年。 到2600年,世界将拥挤得“摩肩擦踵”,而电力消耗将让地球变成“炽热”的火球。

除了对未来的人类命运倍感忧虑以外,由于对人类自身思维意识方面所拥有的高超认知,霍金对人工智能到目前为止所达到的成就也颇为肯定,但同时也建议人工智能技术应谨慎发展。因为技术的累积一旦从量变达到质变时,人工智能则可能以更快的速度完成自我改造。而人类则因受限于生物进化速度,逐渐落后于人工智能而被其超越。早在2014年12月,霍金接受英国广播公司(BBC)采访时就明确表示“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。”2017年3月,霍金在接受英国《泰晤士报》采访时再次发出警告,他表示,自从人类文明开始以来,侵略便一直存在,往往出现在相对具有生存能力优势的不同群体之间,而未来人工智能进一步发展便可能具备这种“优势”,霍金解释自己的警告时说道,“他们本身也是生根于达尔文的进化论之中。因此人类需要利用逻辑和理性去控制未来可能发生的威胁。”

霍金也许对人类和科技的未来是悲观的,但霍金提出对人类社会发展的种种警示,无不体现出身为一名学界巨擘高瞻远瞩的超前意识和悲天悯人的人文关怀。他并不信任人类真的能控制科技这个怪物,但颇为讽刺的是,一旦人类用科技毁掉了这个星球,他们也只能依靠这种科技手段来帮助自身在外星球继续繁衍下去。

请不要忘记霍金的预言和警告,因为人类或许会见证那一天的到来。
 

综编:文昭

评论

【声明】评论应与内容相关,如含有侮辱、淫秽等词语的字句,将不予发表。