霍金警告人类:人工智能将改变世界

+

A

-
2017-11-13 01:34:23

人工智能将对人类造成难以控制的威胁,这是著名物理科学家史蒂芬·霍金对人类发出的警告,机器人会以比人类快得多的速度进化,它们的最终目标将无法预测。

霍金曾多次警告人类人工智能存在风险(图源:VCG)

随着人工智能的发展,机器能独立选择并针对目标开火的可能性也逐渐增高。未来的自动武器或“杀人机器人”,或许很快就能从科幻电影走向现实。

霍金曾多次警告机器人“起义”的危险。按照霍金(Stephen William Hawking)的说法,一场潜藏的威胁正在硅谷的技术实验室中悄悄酝酿,人工智能伪装成数字辅助设备和自动驾驶的交通工具,正在人类社会中逐渐站稳脚跟,它们或许有朝一日将导致人类的终结。

在一次采访时,霍金表达了对人类未来的担忧,“我不认为人工智能领域的进步一定是有益的,人工智能的全面发展可能意味着人类的终结。我们需要确保人工智能的设计符合伦理,并且有到位的防护措施。”

对于人工智能,霍金有以下五点深刻的思考。

一、人工智能的真正风险不是它的恶意,而是它的能力。一个超智能的人工智能在完成目标方面非常出色,如果这些目标与我们的目标不一致,我们就会陷入困境。

二、人工智能对人类的影响,可以从短期、长期两方面来分别讨论。短期担忧是智能自主武器、隐私。人工智能的全方位发展可能招致人类的灭亡。比如最大化使用智能性自主武器。除此之外就是隐私的担忧。由于人工智能逐渐开始解读大量监控数据,这些都会被机器人洞察的一览无余。

三、长期担忧是人工智能系统失控的潜在风险。人工智能遵循的一个逻辑是,“计算机在理论上可以模仿人类智能,然后超越”,这一天很快会到来。

四、人工智能的成功有可能是人类文明史上最大的事件。但人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。所以,监管和立法在人工智能的发展过程中十分重要。

五、人类面临的最大威胁是我们自身的弱点,即贪婪和愚蠢。这些人性的基本属性,将使在人工智能时代的境况将变的更加糟糕,因为当机器被设定程序后就知道适可而止,知道就流勇退,但是人类很难,除非是那些极高修为的人,才能突破人性的弱点,但是机器人可以轻而易举的回避这些弱点。

综编:京京

评论

【声明】评论应与内容相关,如含有侮辱、淫秽等词语的字句,将不予发表。