aihot  2017-06-14 07:01:37  赢咖4注册 |   查看评论   

超智能机器可以设计更好的机器

       当代奇点概念的最早的化身之一是I.J.良好的“智力爆炸”的概念,在1965年阐述:

 

       让超智能机器被定义为一个机器,可以远远超过所有智力活动的任何人,但聪明。由于机器的设计是这些智力活动之一,超智能机器可以设计更好的机器;那么,毫无疑问会是一场“智力爆炸”,人类的智慧将远远落后。因此,第一个超智能机是人们需要做的最后一个发明。

 

       我们认为Good的愿景相当合理,但不出所料,并不是所有未来主义思想家都同意。怀疑者经常引用限制因素,可以阻止智力爆炸的发生,在最近的一篇文章中,Extropy电子邮件讨论列表,未来学家安德斯·桑德伯格阐述了一些可能的限制因素,以一个特别清楚的方式:

 

       在我们的情报爆炸冬季智能研讨会期间,我的一个事情是,一些人对AI,脑力模拟集体或经济的递归自我完善的速度有多自信。一些人认为,与社会适应和发展时间表相比,它将是快速的(创造一个胜利者占据所有情况),有些人认为对于多个超智能代理来说是足够慢的。这个问题是关于奇点的许多关键问题的根源(一个超级智能或许多?友好有多重要?

 

听到这个名单的话,这将是有趣的:你认为是什么是关键的限制因素,如何快速智能可以放大本身?

1.经济增长率

2.投资可用性

3.收集经验信息(实验,与环境互动)

4.软件复杂性

5.硬件需求与可用硬件

6.带宽

7.光速滞后

 

显然,可以建议更多。但是哪些瓶颈是最有限的,如何确定呢?

 

       我们感谢桑德伯格提出这个问题清单,因为它使我们在这篇文章中提出一个明确的驳斥反对智力爆炸的可行性的案例特别简单。我们在这里解释为什么这些瓶颈(和一些其他通常提到的,例如量子力学中的人类智能的可能的基础)不可能是重大问题,因此为什么,作为I.好的预测,智力爆炸确实是一个很可能的结果。

 

情报爆炸的一个明确的先决条件

 

       首先,我们需要界定我们论证的范围和背景假设。特别地,重要的是指定什么样的智能系统将能够产生智力爆炸。

 

       根据我们的解释,爆炸发生有一个绝对的先决条件,即赢咖4(AGI)必须足够聪明地了解自己的设计。事实上,通过选择将其标注为“赢咖4”,我们已经暗示地说,它将能够自我理解,因为AGI的定义是它具有广泛的智力能力,包括所有的我们人类拥有的智能形式 - 至少有一些人在这一点上能够理解AGI设计。

 

       但即使在人类之间也存在技能水平和知识的变化,所以触发爆炸的AGI必须具有足够先进的智能,它可以分析和想象地思考如何操纵和改进智能系统的设计。有可能并不是所有的人都能做到这一点,所以一个AGI满足了AGI-hood的最低要求,也就是说,一个聪明到足以成为一般家庭事实的系统,不一定能够在一个AGI研究实验室。没有后者的高级AGI,没有爆炸,只是像往常一样增长,因为速率限制步骤仍然是人类可以思考的深度和速度。

 

       我们所指的完全能力的AGI的类型可以被称为“种子AGI”,但是我们倾向于使用不太显着的短语“自我理解,人类水平的AGI”。这个术语虽然准确,但仍然是麻烦,所以我们有时会使用短语“第一个真正的AGI”或只是“第一个AGI”来表示相同的想法。实际上,我们正在采取的立场是,为了某物是一个适当的赢咖4,它必须能够与人类智力能达到的最好的竞争,而不是被限制在一个最低限度。因此,“第一AGI”将能够发起智力爆炸。

 

区分爆炸与前面的建立

 

       鉴于爆炸开始的基本先决条件是提供第一个自我了解,人类的AGI,谈论到达到达的时期是有意义的,在这个时期,第一个真正的AGI是被开发和训练 - 作为智力爆炸的一部分?我们认为这是不适当的,爆炸期的真正开始应该被认为是一个足够合格的AGI在AGI研究实验室工作的时刻。这可能不同于其他人使用该术语的方式,但它似乎与I.J.好的原来的用法。因此,我们在这里的关注是认为智力爆炸的高概率,假设已经创造了自我理解,人类层面的AGI。

 

       通过强制这种区分,我们试图避免可能与关于是否可以构建自我理解,人类层次的AGI的平行(和广泛的)争论的混淆。关于具有“种子能力”的AGI是否可以合理构建,或者到达可能需要多长时间的问题,当然是完全不同的。关于这个问题的一系列意见,从2009年AGI会议上对AGI研究人员的调查,在2010年H +杂志文章中提出。在该调查中,一个公认的偏见样本,大多数人认为可以实现具有这种能力的AGI到本世纪中叶,虽然大量的多元人士认为它可能发生得更远。 Ray Kurzweil还详细阐述了一些众所周知的理由,赞成这种AGI的可行性,纯粹是基于外推技术趋势。虽然我们在这个问题上不缺乏我们自己的想法和论点,但我们将把它们留在本文件的目的之外。

 

       可以说,我们在这里考虑的“智力爆炸”只是一个长时间发生的更大的智力爆炸的一个子集。你可以重新定义术语,以便说,例如,

1.智力爆炸的第一阶段发生在人类的进化之前

2.阶段2发生在人类培养的进化过程中

3.阶段3是好的智力爆炸,发生在我们有人类的AGI后

 

       这也将是一个有意义的使用术语“智力爆炸”,但在这里,我们正在采取我们的提示从Good的使用,并使用术语“智力爆炸”仅指“阶段3”。

 

       虽然承认理解我们当前和未来情况的历史基础的价值,我们也相信,即将来临的“第三阶段智力爆炸”是从人类角度出发的一种质的新的和不同的现象,因此值得珍惜的术语和治疗。

 

什么构成了“爆炸”?

 

爆炸有多大,多长和多快会被算作“爆炸”?

 

       好的原始概念更多与爆炸的开始比结束,或其范围,或中间或后期阶段的速度。他的观点是,在短时间内,人类的AGI可能会爆炸成一个显着的跨人类AGI,但他并没有试图争辩说,随后的改进会继续下去。我们,好,主要感兴趣的是从人类水平的AGI到AGI的爆炸,非常松散地说,一般智力水平比人类水平高2-3个数量级(比如100H或1000H,使用1H表示人类一般智力)。这不是因为我们必须怀疑持续到这样一个点之外的爆炸,而是因为追求超越这个概念的概念似乎是一段人类当前的智力框架。

 

       在这里,我们的推理是,如果一个AGI要提高其开展科学和技术研究的能力,到这样的程度,它发现新的知识和发明的速度是人类现在做这些的100倍或1000倍事情,我们会发现这种世界难以想象地比人类在做发明的任何未来更加激烈。在一个1000年的世界里,AGI科学家可以从高中的物理知识转变为相对论在一天之内发明(假设,目前的1000因素都在思维的速度 - 这是一个假设,我们将稍后将更详细地讨论)。这种情况与纯粹的人类创造性的世界截然不同 - 无论人类在未来如何改善自己,没有AGI,似乎不太可能有一个时间,当未来的爱因斯坦一天早晨醒来时,孩子的科学知识,然后在接下来的一天构思相对论 - 所以似乎安全地称之为“智力爆炸”。

 

       这仍然留下的问题是,它有多快到达,被视为爆炸性。对于第一个AGI在一个世纪的时间里从1H到1000H是否足够,还是必须发生得更快,才能达到资格?

 

       也许没有必要急于判断这一点。即使一个世纪的爬升到1000H级别,这意味着世界对于其他历史将是非常不同的。我们建议的最简单的立场是,如果人类可以达到创造新类型的智能本身,创造更大的权力的智慧,那么这是世界上新的东西(因为在那一刻我们所能做的就是创造人的婴儿的力量1H),所以即使这个过程发生得相当缓慢,它仍然是一种爆炸的种类。它可能不是一个大爆炸,但它至少会是一个通货膨胀的时期,两者都可能最终导致一个1000年的世界。

 

定义智力(或不)

 

       谈到智力爆炸,人们必须知道什么是“智力”以及“爆炸”的意思。因此,值得反思的是,目前没有精确,客观地定义和广泛扩展超出人类范围的一般智力测量。

 

       然而,由于“智力爆炸”是一个定性概念,我们认为,对智力的常识定性理解是足够的。我们可以在一些细节上解决Sandberg的潜在瓶颈,而不需要一个精确的措施,我们相信,通过避免这个问题,几乎没有损失。我们会说,智力爆炸是有可能创造AGI系统远远超过人类,因为人类超出了老鼠或蟑螂,但我们不会试图确定距离老鼠和蟑螂真正是多远。

 

智能爆炸的关键属性

 

       在我们详细分析Sandberg列表中的具体因素之前,对智力爆炸性质的一些一般性澄清将会有所帮助。 (请与我们一起!这些是微妙的事情,并且仔细制定它们是很重要的...)

 

       固有不确定性。虽然我们可以尽力了解情报爆炸如何发生,但事实是,在要达到任何可靠结论的因素之间存在太多的相互作用。这是一个复杂的系统交互,其中即使是最小的,最小预期的因素也许是速率限制步骤或火花开始火。因此,这里有一个不可避免的不确定性,我们应该警惕促进似乎太坚定的结论。

 

       一般情报与情报爆炸的特别论据。有两种方法来解决是否可能发生智力爆炸的问题。一个是基于相当一般的考虑。另一个涉及寻找AGI的具体途径。 AGI研究者(例如作者之一)可能相信他们理解了大量需要做的技术工作来创造智力爆炸,因此他们可能对这个想法的合理性有信心。我们将在这里限制第一种论据,这种论证更容易以相对无争议的方式作出,而抛开我们自己对如何建立AGI的理解可能产生的任何因素。

 

       “布鲁斯·韦恩”情景。当第一个自我理解,人类的AGI系统被建成,不可能是一个孤独的发明家在花园里的一个棚子里工作,谁管理生产的成品没有告诉任何人。很少的“孤独发明家”(或“布鲁斯·韦恩”)场景看起来似乎是可信的。随着通信技术的进步和引起文化转变,技术进步日益依赖于各方之间的信息的快速通信。单个发明人不大可能超越在类似项目上工作的多人团队;并且由于现代技术文化的性质,多人团队不太可能成功地保持这样困难和耗时的项目秘密。

 

       无法识别的发明。还似乎不可能的是,人类水平的,自我理解的AGI的发明之后将是一个时期,其中本发明只是坐在搁架上,没有人会费心去拿起它。 AGI情况可能不像早期接收诸如电话或留声机的发明,其中本发明的全部潜能在很大程度上未被识别。我们生活在一个时代,其中实践证明的技术进步广泛和热情地沟通,并接受大量的投资美元和专业知识。 AGI现在获得的资金相对较少,原因有很多,但是在具有高度技术能力的人类AGI系统的情况下,希望这种情况继续存在是不可能的。这直接关系到Sandberg的名单上的经济反对,我们将在下面详细说明。

 

       硬件要求。当第一个人机级别的AGI开发时,它将需要超级计算机级别的硬件资源,或者它将是可实现的更少。这是一个重要的二分法要考虑,因为世界级的超级计算机硬件不是可以快速复制大规模。我们可以做出大量的努力,但可能不是一百万的他们在几年内,可能成千上万的这样的机器。

 

       智慧与快速。智能加速有两种可能类型:一种是由于智能系统的更快操作(时钟速度增加),另一种是由于实现思维过程的机制类型(“思维深度”增加)的改进。显然,两者都可以立即发生(并且可能存在显着的协同作用),但是后者表面上更难以实现,并且可能受到我们不理解的基本限制。另一方面,加速硬件是已经进行了很长时间,更平凡和可靠的东西。请注意,这两条路线都会带来更大的“智能”,因为即使是人类的思维和创造力水平,如果发生的速度比现在快一千倍,也会更有效。

 

除特别注明外,本站所有文章均为 赢咖4注册 原创,转载请注明出处来自超智能机器可以设计更好的机器

留言与评论(共有 0 条评论)
   
验证码:
[lianlun]1[/lianlun]