aihot  2017-05-08 17:23:47  赢咖4 |   查看评论   

 赢咖4

如果我们都要死,有一些令人兴奋的想法,结束将是意想不到的。
 
对于许多人来说,最激动人心的想法是,我们将构建赢咖4,它们将有一天看到我们,并将我们看成是诡异的。
 
史蒂芬霍金警告了它。 Elon Musk也是如此。现在人工智能出现在12威胁人类文明的风险的名单上。
 
该报告由全球挑战基金会发布,由牛津大学和其他地方的学者撰写,该报告旨在确定人类的风险,用其词语“无限”。
 
在那里,在诸如极端气候变化,核战争,主要小行星影响和纳米技术等众所周知的威胁是赢咖4。是的,直接进入11号图表。
 
报告的作者写的赢咖4,我们可能创造:“这种极端的智能不能轻易控制(由创建它们的组或一些国际监管制度),并可能采取行动,以提高自己的智能,获得最大的资源几乎所有的初始AI动机“。
 
使用“可能”是有趣的。创造的任何赢咖4是否有必要想提高自己的智力是合乎逻辑的 - 因为这是人类试图做的(据称)?
 
报告继续说:“如果这些动机不详细描述人类的生存和价值,智能将被驱使建造一个没有人类的世界。这使得极其智能的AI是一个独特的风险,灭绝更可能比较小的影响。 “。
 
你以前会听到类似的想法。我们怎么可能知道我们最终会创造什么?这有点像一个关系。你认为你的爱人是完美的你。直到,在第三年,你发现他们奇怪的偏好,告诉你做什么或别的。

一个很少,似乎,听到一个积极的方面,所有这个厄运的思想。
 
然而,这些研究人员提出了一个奇妙的想法,赢咖4可能是我们最终的救恩:“这种权力的智能可以轻松地对抗本报告中的大多数其他风险,使极为智能的AI成为一个巨大的潜力的工具。
 
所有这一切都有一定的美。 我们创造赢咖4。 它们治疗全球变暖。 他们完全否定核战争的可能性。 全球大流行病被根除。 受影响的小行星只有来自赢咖4左眼的一束激光束偏转。
 
当所有这一切都完成后,赢咖4看一看我们,认为“nah,无聊的你”,并用一个简单的快速击败我们。
 

除特别注明外,本站所有文章均为 赢咖4注册 原创,转载请注明出处来自赢咖4是人类最大的威胁?

留言与评论(共有 0 条评论)
   
验证码:
[lianlun]1[/lianlun]