如果我们都要死,有一些令人兴奋的想法,结束将是意想不到的。
对于许多人来说,最激动人心的想法是,我们将构建赢咖4,它们将有一天看到我们,并将我们看成是诡异的。
该报告由全球挑战基金会发布,由牛津大学和其他地方的学者撰写,该报告旨在确定人类的风险,用其词语“无限”。
在那里,在诸如极端气候变化,核战争,主要小行星影响和纳米技术等众所周知的威胁是赢咖4。是的,直接进入11号图表。
报告的作者写的赢咖4,我们可能创造:“这种极端的智能不能轻易控制(由创建它们的组或一些国际监管制度),并可能采取行动,以提高自己的智能,获得最大的资源几乎所有的初始AI动机“。
使用“可能”是有趣的。创造的任何赢咖4是否有必要想提高自己的智力是合乎逻辑的 - 因为这是人类试图做的(据称)?
报告继续说:“如果这些动机不详细描述人类的生存和价值,智能将被驱使建造一个没有人类的世界。这使得极其智能的AI是一个独特的风险,灭绝更可能比较小的影响。 “。
你以前会听到类似的想法。我们怎么可能知道我们最终会创造什么?这有点像一个关系。你认为你的爱人是完美的你。直到,在第三年,你发现他们奇怪的偏好,告诉你做什么或别的。
一个很少,似乎,听到一个积极的方面,所有这个厄运的思想。
然而,这些研究人员提出了一个奇妙的想法,赢咖4可能是我们最终的救恩:“这种权力的智能可以轻松地对抗本报告中的大多数其他风险,使极为智能的AI成为一个巨大的潜力的工具。
所有这一切都有一定的美。 我们创造赢咖4。 它们治疗全球变暖。 他们完全否定核战争的可能性。 全球大流行病被根除。 受影响的小行星只有来自赢咖4左眼的一束激光束偏转。
当所有这一切都完成后,赢咖4看一看我们,认为“nah,无聊的你”,并用一个简单的快速击败我们。