aihot  2017-06-14 07:01:37  赢咖4注册 |   查看评论   

 

       内部AGI带宽是另一回事。内部带宽可能是限制因素的一个例子是,如果AGI的工作存储器容量取决于在系统的关键组件中的总连接性 - 一切连接到其他任何东西的需要。如果这种情况,我们可能会发现,我们不能在AGI中非常多地提高工作内存,因为带宽需求会剧增。这种对工作记忆的设计的限制可能对系统的思想深度具有显着的影响。

 

       然而,请注意,这些因素可能不会抑制爆炸的初始相位,因为AGI的时钟速度而不是思维深度可能在带宽限制开始之前可以改进几个数量级。推理的主要元素背后这是观察神经信号的速度是这么慢。如果可以使用保持相同类型的处理需求和与神经元相同的信号速度的组件来构建大脑样AGI系统(不一定是全脑仿真,而仅仅是复制大脑的高级功能的东西) ,那么我们将看到一个人级AGI,其中信息包每毫秒交换一次。在那种系统中,将有足够的空间来开发更快的信号速度,并增加系统的智能。处理元件也必须更快地进行,如果它们不是空闲的,但是要点是带宽不会是关键的问题。

 

异议6:光速滞后

 

       在这里,我们需要考虑狭义相对论对物理宇宙中的信息传输速度的限制。然而,其在AGI的背景下的影响与带宽限制的影响没有多大不同。

 

       如果机器的部件在物理上相距甚远,那么大量的数据(通过假设)在显着延迟的情况下被传送,光速滞后可能是一个显着的问题。但它们似乎不可能是爆炸的最初几个数量级的问题。同样,这个论点源于我们对大脑的了解。我们知道,由于生化限制,大脑的硬件被选中。我们是基于碳的,而不是基于硅和铜的,因此在头部中没有电子芯片,只有在管道壁中填充有流体和缓慢分子门的管道。但是,如果自然被迫使用管道和离子通道方法,这使我们有很大的空间来加速使用硅和铜(这是与所有其他更奇怪的计算基板,现在在地平线)。如果我们只是对硅和铜进行一个过渡膜去极化波,并且如果这产生了1000倍的加速(保守的估计,给定两种形式的信号之间的内在差异),这将是值得名字的爆发。

 

       这种推理会分解的主要情况将是,如果,由于某种原因,大脑同时限制在两个战线:通过碳实现和同一基本设计的其他实施受限于破坏性的光,速度延迟。这意味着所有非碳实现的大脑使我们接近光速极限,我们得到大部分的加速大脑。这将需要限制因素(两个限制因素正好发生在完全相同的水平上启动)的巧合,我们发现相当不可信,因为这将意味着一个相当奇怪的情况,其中进化尝试了生物神经元设计和一个硅实现相同的设计,并且在进行性能的并行比较之后,选择一种推动所有信息传输机制的效率直到它们的端点。

 

反对7:人类智能可能需要量子(或更奇怪)的计算

 

       最后,我们认为一个反对意见不是在桑德伯格的列表,而是在流行甚至科学文献中不时提出。绝大多数当代AGI领域的工作假设是,人类智能最终可以在数字计算机上实现,但是目前理解的物理定律意味着,为了模拟某些物理系统而没有显着的减速,需要特殊的物理系统称为“量子计算机”,而不是普通的数字计算机。

 

       目前没有证据表明人类的大脑是这种性质的系统。当然,大脑在其基础上有量子力学,但没有证据表明它在与人类智能行为直接相关的水平上显示量子相干性。事实上,我们目前对物理的理解意味着这是不可能的,因为在任何类似的大和“湿”系统中还没有观察到量子相干。此外,即使人类大脑被证明在某种程度上依赖于量子计算,这并不意味着量子计算对于人类智能是必要的 - 通常有许多不同的方法来解决相同的算法问题。和(杀手反驳),即使量子计算是人类一般智能所必需的,这只会延迟智能爆炸一点,同时适当的量子计算硬件被开发。这种硬件的开发已经是集中研发的主题。

 

       罗杰·彭罗斯(Roger Penrose),斯图尔特·哈默罗夫(Stuart Hameroff)和其他一些人认为,人类智能甚至可能依赖于某种形式的“量子重力计算”,超越了普通量子计算的能力。但这真的是一个完全的蓝天投机,没有当前科学的基础,所以不值得在这个上下文中详细讨论。可以根据与上面关于量子计算所提出的相同的论点来处理该权利要求的较简单版本。最强的版权声明包括一个论点,人类智能依赖于超过当前(或可能任何可能的)物理理论的范围的“超图灵计算”的非常强大的数学概念;但在这里我们依靠神秘主义,因为可以说没有一套科学数据可以验证或驳斥这样一个假说。

 

从AGI到智力爆炸的道路似乎很清楚

 

       总而言之,我们对桑德伯格反对意见的相对详细分析的结论是,目前没有充分的理由相信,一旦能够理解其自身设计的人类层面的AGI被实现,智力爆炸将无法继续。

 

       我们在这里假设的“智力爆炸”的有效定义涉及提高大约两三个数量级的思维速度(也许还有“思想深度”)。如果有人坚持认为真正的智力爆炸涉及智能增加百万倍或万亿倍,我们认为在这个阶段没有任何数量的分析可以产生明智的结论。但是,由于具有智能= 1000H的AGI可能会导致下一个一千年的新科技在一年内到达(假设物理实验的速度没有成为该范围内的重要因素),这将是愚蠢的,我们建议,不要称之为“爆炸”。这样大规模的智力爆炸将使我们进入一个领域,我们目前的科学,技术和概念框架没有装备来处理;所以一旦智力爆炸已经显着进展,超出这个阶段的预测是最好的。

 

       当然,即使上面的分析是正确的,我们还是很难理解智力爆炸,并且许多这些细节将保持不透明,直到我们知道什么样的AGI系统将发动爆炸。但我们的看法是,从自我理解的人类级别的AGI过渡到智力爆炸的可能性目前不应成为严重怀疑的问题。我们还认为,创建一个自我理解的人类AGI是一个高概率的结果,虽然这是一个更常见的断言,我们并没有试图重复有利于这里的论据。

 

       当然,如果我们的分析是正确的,那么对科学,社会和人类(以及其他)有各种戏剧性的影响 - 但是其中许多已经在其他地方讨论过了,并且审查这个思想体系不是我们的目的。这些意义值得深思 - 但第一件事是非常清楚地知道,智力爆炸很可能会来,正如I.J.好预测。

 

 

除特别注明外,本站所有文章均为 赢咖4注册 原创,转载请注明出处来自超智能机器可以设计更好的机器

留言与评论(共有 0 条评论)
   
验证码:
[lianlun]1[/lianlun]