霍金警告机器人暴动:险恶威胁在实验室酝酿

【新唐人2016年07月12日讯】英国著名科学家史蒂芬·霍金(Stephen Hawking)近日警告,一场险恶的威胁正在实验室中悄然酝酿,人工智能会以比人类更快的速度发展,其最终目标将无法预测,有朝一日或导致人类的终结。

英国《每日邮报》报导,据霍金说,硅谷的技术实验室中正酝酿着一场险恶的威胁人工智能伪装成有用的数字辅助设备和自动驾驶车辆,正在逐渐站稳脚跟,有朝一日或意味着人类的终结。

霍金警告,机器人会以比人类快的速度发展,它们的目标将无法预测。在接受《正在拉里·金》(Larry King Now)节目采访时,霍金表达了对人类未来的担忧。他说:“我认为,人工智能领域的进步未必是有益的。”

近日,霍金参加了在西班牙加那利群岛(Canary Islands )举行的“斯塔尔慕斯节”(Starmus Festival),该活动的目的是让公众更加接近科学。

他在受访中说:“一旦机器达到了能够自我发展的关键阶段,我们就无法预测,它们的目标是否会和我们相同。人工智能具有比人类发展更快的潜力。我们需要确保人工智能的设计合乎伦理,并有到位的防范措施。”

这并非霍金第一次警告机器人“暴动”的危险。去年,他也曾警告,随着人工智能学会为自己考虑,并适应于环境,人类正面临不确定的未来。

霍金在伦敦出席一场活动时,告诉BBC:“人工智能的全面发展或意味着人类的终结。”

去年早些时候,霍金也曾表示,成功创造人工智能“将是人类历史上最重大的事件,但不幸的是,这可能是最后一次。”

他认为,个人数字助理如Siri、Google Now和Cortana等的发展,仅仅是一场IT军备竞赛的先兆,未来几十年情况将更严重。

去年,霍金在谈到约翰尼·德普(Johnny Depp)主演的影片《超验骇客》(Transcendence)时说,认为这部影片仅仅是一个科幻故事,可能是“人类历史上最严重的错误”。

这部科幻惊悚片对未来人工智能进行了推测,探究了一个电脑超越人类的世界。

去年,电动车公司特斯拉创始人伊隆·马斯克(Elon Musk)也将人工智能比作“召唤恶魔”。他此前就警告,人工智能技术有一天可能比核武器更可怕。

霍金最近接受拉里·金采访时表示,人类最大的威胁其实是自身的弱点。早在2010年,他就在接受拉里·金采访时说,人类两个最大的危险就是贪婪和愚蠢,而在最近这次受访中,他表示一切并没有什么改变。

责任编辑:史轩之

相关文章
评论
新版即将上线。评论功能暂时关闭。请见谅!