【14-05-03】〖其他〗霍金:人工智能不一定是好事 或导致人类灭
莎拉传吧
全部回复
仅看楼主
level 12
_风___子 楼主
来源:腾讯科技| 2014-05-03 03:59:06| 作者:林靖东
  腾讯科技讯 5月3日消息,著名物理学家史蒂芬霍金(Steven Hawking)在讨论约翰尼德普(Johnny Depp)主演的新片《超验骇客》时称,人工智能或许不但是人类历史上最大的事件,而且还有可能是最后的事件。他的意思是:人工智能可能会导致人类的灭亡。
  当你为人工智能技术的飞速发展而欢呼雀跃的时候,你是否想过这可能并不是一件好事?
  在观看了德普主演的新片《超验骇客》后,霍金在为《独立》杂志撰写的一篇文章中明确地表达了他对这个问题的担忧。
  霍金担忧的对象不仅仅是未来的人工智能技术,甚至还包括现在的一些公司比如谷歌和Facebook。他说:“人工智能的短期影响取决于由谁来控制它,而长期影响则取决于它是否能够被控制。”
  不管从短期还是长期角度来说,人工智能都存在着巨大的潜在风险。实际上,霍金似乎根本就不信任所谓的人工智能专家。
  他说:“未来可能出现的情况到底是好是坏完全是无法预料的,面对这种情况,专家们肯定会尽一切可能去保证得到最好的结果,对吗?错!如果有一个优越的外星文明给我们发来一条信息说:‘我们将在几十年之后到达地球,’我们是否应该回答说:‘好的,当你到达地球的时候请通知一下我们,我们将给你留门’?我们可能不会那么做,但是如果人工智能技术继续发展下去,差不多就会出现那样的情况。”
  实际上,坚持技术发展似乎可以消除或避免最终产品可能对人类构成的威胁。无人汽车就是个很好的例子。工程师们似乎并不关心人们在开车的过程中获得的乐趣。
  霍金承认,机器人和其他的人工智能设备也许会给人类带来巨大的好处。如果那些设备的设计非常成功,就能给人类带来巨大的好处,他说那将是人类历史上最大的事件。然而他同时也提醒说,人工智能也有可能是人类历史上最后的事件。
  实际上,人类在考核人工智能技术的潜在风险和收益方面所做的研究工作太少。霍金对此表示担忧和哀叹。
  他说:“人工智能技术发展到极致程度时,我们将面临着人类历史上的最好或者最坏的事情。”
  霍金以前就曾试图提醒人们注意一点,即科幻的魅力会蒙蔽我们的双眼。它有时会掩盖住一个重要的问题,即最终的结果有可能引发一场浩劫。他曾经说过,外星文明可能会憎恨地球文明。
  人类有一种自恋的倾向,盲目相信自己很聪明而从不考虑事情有时可能会出错。或许正如霍金所说的那样,科技行业应该更多地把关注的焦点放在未雨绸缪上面。(林靖东)
2014年05月03日 10点05分 1
level 12
好像也不是什么坏事
2014年05月03日 14点05分 4
level 14
“七千年时,别的物质开始形成自己的王国基础......”
霍金绝对知道这话出自哪里。
2014年05月04日 00点05分 5
level 12
_风___子 楼主
《超验骇客》能让霍金说这么多话,有谁知道哪儿能看吗?
2014年05月04日 04点05分 7
目前只有电影院能看
2014年05月05日 22点05分
level 10
霍金又出来卖萌了。
2014年05月04日 05点05分 8
level 8
他对待人类以外的智能生物全是这种态度,对外星人也是这样,他这是部落主义本能的体现,不像一个科学家该有的样子
2014年05月10日 00点05分 9
其实他已经是最接近于机器人的人类了,他才最希望自己的大脑能够移植到用机器维持生命的装置上
2014年05月10日 03点05分
回复 _风___子 :机械战警
2014年05月10日 14点05分
1