下载股融易安卓版
股融易手机网页版
最新
头条
业务微信号
公号二维码
在线
客服
点击咨询 工作日9-18点
您好,我们不兼容IE7以下的浏览器,建议您升级浏览器或更换浏览器
位置:首页 > 资讯 > 霍金称AI可能毁灭人类,有理有据不服来辩
霍金称AI可能毁灭人类,有理有据不服来辩

[ 导读 ] 科幻小说《2001:太空奥德赛》和根据它改编而成的经典电影《2001太空漫游》,讲述了AI由人类帮手变为人类毁灭者的故事。我们亲手打造的AI,会在未来葬送人类吗?霍金表示,这绝非危言耸听。

近日,在剑桥大学Leverhulme智能未来中心的开幕式上,霍金为火爆的AI行业泼了盆冷水。

“我们花了大量时间学习历史,”霍金在演讲中说道,“而我们所面对的历史,大多是愚蠢的。所以,现在人们在研究智能的未来,这是一个令人欣慰的变化。”

霍金表示AI研究的确带来了许多积极因素,认为通过这项新技术,人类或许能够消除工业化对自然界造成的一些损害,而最终目标肯定是消除疾病和贫困。

股融易 霍金 AI

“创造出智慧的潜在好处是巨大的,我们无法预测当我们的心智被AI增强时,我们将达到何种成就。”

“我们生活的方方面面都会被改变,总之,成功创造出AI可能是我们文明史上最重要的事。”

霍金称AI可能毁灭人类,有理有据不服来辩

然而,作为享誉世界的物理学家,霍金对于AI持谨慎态度,他认为一旦人类创造出具有自我意识的超级智慧,可能会面临着自我毁灭的风险,因为AI的意志可能会与我们产生冲突。

“总之,强大的AI的兴起,或许将是人类最好或是最糟糕的事,这我们还不清楚。”

霍金之所以会有这种担忧,是因为在他看来,AI的潜力是无限的,“生物大脑与电脑的能力并没有太区别。”

“因此,从理论上讲,计算机可以模仿人类智慧,并超越它。”

这已经不是霍金第一次对AI潜在威胁提出警告了。去年年初,霍金就与一些AI专家,还有马斯克、沃茨等名人发表联合声明,呼吁禁止武器化AI和自主作战系统。

霍金称AI可能毁灭人类,有理有据不服来辩

当时霍金解释说,AI的真正风险不在于其是否充满恶意而在于其能力。他举了个例子:你在负责一项水利工程时,需要淹没蚁穴,尽管你并不是一个仇恨蚂蚁的人,但在完成目标时无意间就为蚂蚁带来了灭顶之灾。

所以,当一个能力MAX的超级人工智能在执行任务时,如果它的目标与人类不一致,那么人类就有可能面临与蚂蚁同样的厄运。

尽管目前人工智能的发展仍处于起步阶段,但霍金对于AI威胁的评价,或许值得我们深思:

“人工智能的短期影响取决于谁控制了它,而长期影响则取决于它到底能不能被控制。”

×
转发到圈子
请先完成下方验证 ×

让股权融资更简单

请输入手机号或邮箱号
您输入的密码不正确