aihot  2017-06-14 07:01:37  赢咖4注册 |   查看评论   

 

       看起来很可能的是,一般类别的AGI系统可以被构造成比人类大脑非常模仿的智能系统的情况更好地利用改进的硬件。但是即使不是这样,硬件加速仍然可以产生显着的智能改进。

 

       公共感知。智力爆炸给人类社会带来的方式将强烈依赖于在第一个自我理解的人类层面的AGI发展后不久的爆发速度。例如,如果第一个这样的AGI需要五年来“加倍”其智能,这是一个非常不同的事情,如果它需要两个月。五年的时间框架很容易出现,例如,如果第一个AGI需要一个非常昂贵的超级计算机基于不寻常的硬件,并且这个硬件的所有者要慢慢地移动。另一方面,如果初始AGI是使用开源软件和商品硬件创建的,那么两个月的时间框架可能更容易出现,因此智能的加倍只需要添加更多的硬件和适当数量的软件更改。在前一种情况下,政府,公司和个人将有更多的时间适应智力爆炸的现实,然后才能达到显着的超人水平的智力。在后一种情况下,智力爆炸会更猛烈地袭击人类。但是人类对事件的感知的这种潜在的巨大差异将对应于在驱动智力爆炸的基本过程方面相当小的差别。

 

       所以,现在,最后,与我们后面的所有初步,我们将继续处理桑德伯格的列表中的具体因素,一个一个,解释为什么每个实际上不可能是一个重大的瓶颈。还有更多的可以说每一个,但我们的目的是以紧凑的方式布置的要点。

 

反对1:经济增长率和投资可用性

 

       人类层面,自我理解的AGI系统的到来或即将到来显然将对世界经济产生巨大的影响。似乎不可避免的是,这些戏剧性的影响将足以抵消与AGI开始出现时的经济增长率相关的任何因素。假设技术先进国家继续存在运营技术研发部门,如果创建了自我了解的人类AGI,那么它几乎肯定会获得大量投资。例如,日本的经济增长率目前有些停滞,但毫无疑问,如果展示任何强大的AGI,日本政府和企业的大量资金将进入其进一步发展。

 

       即使不是正常的经济压力来利用这项技术,国际竞争力也无疑会发挥强大的作用。如果一个工作的AGI原型要达到爆炸似乎可能的水平,世界各国政府将认识到这是一个非常重要的技术,没有努力生产第一个全功能AGI“在另一边之前“整个国家经济可能升华到发展第一个超智能机的目标,在20世纪60年代阿波罗项目的方式。远不影响智力爆炸,经济增长率将由世界各地的各种AGI项目确定。

 

       此外,似乎可能的是,一旦实现了人类的AGI,它将对多个行业产生实质性的和立即的实际影响。如果AGI能够理解自己的设计,它也可以理解和改进其他计算机软件,因此对软件行业产生了革命性的影响。由于美国市场上的大多数金融交易现在都是由程序交易系统驱动的,因此这种AGI技术很可能迅速成为金融行业(通常是任何软件或AI创新的早期采用者)不可或缺的。军事和间谍机构很可能也会发现大量这种技术的实际应用。因此,在实现自我了解,人类层面的AGI,以及补充大量研究资金的分配,以便在实现更智能的AGI方面超过竞争,很有可能为实际的AGI应用提供资金,间接驱动核心AGI研究。

 

       关于这种发展狂热将如何发挥的细节是可以争论的,但我们至少可以确定,AGI发展时期的经济增长率和投资环境将很快变得不相关。

 

       然而,有一个有趣的问题留给这些考虑。在编写本报告时,与其他类别的科技投资相比,全球的AGI投资明显疲弱。这种情况可能会无限期地持续下去,导致没有什么进展,没有建立可行的原型系统,没有投资者相信真正的AGI是可行的?

 

       这是很难估计,但作为AGI研究人员,我们(明显有偏见)的意见是,“永久冬季”的情况太不稳定,不可信。由于过去AI研究人员提出过早的索赔,投资障碍显然存在于当今投资者和资助机构的心目中,但气候似乎在变化。即使这种明显的解冻是虚假的,我们仍然很难相信,最终将不会有一个AGI投资事件相当于在20世纪90年代末掀起互联网进入高速的一个。此外,由于在相关领域(计算机科学,编程语言,模拟环境,赢咖4技术,计算机硬件,神经科学,认知心理学等)的先进技术,实施先进的AGI设计所需的努力正在稳步减少 - 随着时间的推移,使AGI达到爆炸使能水平所需的投资量将越来越少。

 

反对2:实验的固有缓慢和环境相互作用

 

       这种可能的限制因素源自于以下事实:能够启动智力爆炸的任何AGI将需要进行一些实验和与环境的相互作用以便改善自身。例如,如果它想在更快的硬件(最可能是最快的智能增长途径)上重新实现它,它将必须建立一个硬件研究实验室,并通过做实验收集新的科学数据,其中一些可能进展缓慢,由于实验技术的局限性。

 

       这里的关键问题是:有多少研究可以通过投入大量的智能来加快?这与一个过程并行化的问题密切相关(也就是说,你不能让一个婴儿九个月更快地怀孕九个月)。某些算法问题不容易通过增加更多的处理能力而更快地解决,并且以同样的方式可能存在某些关键的物理实验,其不能通过进行较短的实验的并行集合来加速。

 

       这不是我们可以提前理解的一个因素,因为一些实验看起来像是需要根本慢的物理过程,例如等待硅晶体生长,所以我们可以研究芯片制造机制 - 可能实际上是依赖的对实验者的智力,我们不能预料的方式。它可能是,而不是等待芯片以自己的速度增长,AGI可以做一些聪明的微实验,更快地产生相同的信息。

 

       正在纳米工程上进行的工作量的增加似乎加强了这一点。目前相对较慢的许多工艺可以使用纳米级解决方案快速完成。当然,高级AGI可以加速纳米技术研究,从而启动一个“良性循环”,其中AGI和纳米研究分别推动彼此(纳米技术先驱Josh Hall预见)。由于目前的物理学理论甚至不排除更为奇怪的可能性,如毫微技术,它当然不表明存在任何接近现代科学领域的实验速度的绝对物理限制。

 

       显然,在未来AGI发展的这一方面存在很大的不确定性。然而,一个观察似乎削弱了许多不确定性。在确定可以进行多快的实证科学研究的所有成分中,我们知道在当今世界,科学家的智力和思维速度必须是最重要的。参与科学技术研发的任何人都可能同意,在我们现在的技术复杂性,高级研究项目受到智能和有经验的科学家的可用性和成本的强烈限制。

 

       但是,如果世界各地的研究实验室已经停止在更多的科学家处理他们想要解决的问题,因为后者是无法获得的或太昂贵,那么这些研究实验室很可能独立地处于物理速率的极限可以进行哪些实验?似乎很难相信这两个限制将同时达到,因为它们似乎不是独立优化的。如果实验速度和科学家可用性的两个因素可以独立优化,这意味着即使在科学家缺乏的情况下,我们仍然可以确信我们已经发现了所有最快的可能的实验技术,没有发明新的,巧妙的技术,超越物理 - 实验速度限制的空间。然而,事实上,我们有充分的理由相信,如果我们目前在地球上的科学家人数翻一番,其中一些将发现新的方式进行实验,超过一些当前的速度限制。如果这不是真的,这将意味着我们很巧妙地达到了科学人才的限制和数据收集的物理速度同时 - 这是巧合,我们不觉得合理。

 

       这张图片的当前情况似乎与轶事报道一致:公司抱怨研究人员昂贵且供不应求;他们不抱怨自然太慢了。在实践中,似乎普遍接受的是,随着在研究领域增加更多的研究人员,可以找到加速和改进过程的方法。

 

       因此,基于当今科学和工程的实际做法(以及已知的物理理论),似乎最可能的是,任何实验速度限制都在道路上远离视线。我们还没有达到他们,我们缺乏任何坚实的基础,猜测他们究竟在哪里。

 

       总的来说,似乎我们没有具体的理由相信,这将是一个根本的限制,阻止智能爆炸从H(人类一般智能)到(例如)1000 H的AGI增加在该范围内的速度(例如用于计算机硬件),即使没有大量的AGI系统帮助,因此看起来物理限制本身将不太可能阻止从1H到1000H的爆炸。

 

异议3:软件复杂性

 

       这个因素是关于AGI必须开发的软件的复杂性,以便揭示其智能。这个假设的瓶颈背后的前提是,即使是具有自我知识的AGI,也难以应对改进自己的软件的难题的复杂性。

 

       这似乎是不可信的限制因素,因为AGI可以永远离开软件单独和开发更快的硬件。只要AGI能找到一个能使其时钟速度提高一千倍的基板,我们就有可能出现重大的智能爆炸。

 

       认为软件复杂性将阻止第一个自我理解,人类水平的AGI不被建立是一个不同的事情。它可以通过停止前兆事件来阻止智力爆炸的发生,但我们认为这是一个不同类型的问题。正如我们前面所解释的,本分析的前提是AGI实际上可以构建。这将需要更多的空间,这里可以正确解决这个问题。

 

       此外,如果AGI系统能够理解其自身的软件以及人类可能,则它将能够显着地改善该软件而不是人类已经能够做到的。这是因为在许多方面,数字计算机基础设施比人类大脑的网络更适合软件开发。 AGI软件可以直接与编程语言解释器,形式验证系统和其他与编程相关的软件进行交互,而人类的大脑不能这样做。以这种方式,人类程序员所面临的软件复杂性问题将被显着地减轻用于人机级别的AGI系统。然而,这不是我们的论点的100%的关键点,因为即使软件复杂性对于自我理解,人类水平的AGI系统仍然是一个严重的困难,我们可以总是回到基于时钟速度的参数。

 

异议4:硬件要求

 

       我们已经提到,很大程度上取决于第一个AGI是否需要一个大型的,世界级的超级计算机,还是它可以在更小的事情上完成。

 

       这可能限制爆炸的初始速度,因为关键因素之一将是可以创建的第一AGI的副本的数量。为什么这是至关重要的?因为复制完全开发的,经验丰富的AGI的智能的能力是智力爆炸核心的最重要的机制之一。我们不能这样复制成年人,熟练的人,所以人类的天才必须从头开始重建每一代。但是,如果一个AGI要在某些重要领域学习成为一名世界专家,那么它可以被克隆任何次数,以产生一个即时的合作专家社区。

 

       然而,如果第一个AGI必须在超级计算机上实现,这将使得难以大规模地复制AGI,并且智能爆炸将减慢,因为复制速率将在确定智能 - 生产率。

 

       然而,随着时间的推移,复制速度将增加,因为硬件成本下降。这意味着高级情报的到达率将在这一进程开始后的年份增加。这种智能将用于改进AGI的设计(至少,提高新的和更快的硬件生产的速率),这将对智能生产率产生积极的反馈效应。

 

       因此,如果有第一个AGI的超级计算机硬件要求,我们会认为这只会抑制爆炸的最初阶段。之后的积极反馈最终会导致爆炸。

 

       如果,另一方面,初始硬件要求变得适度(因为它们可能是很好的),爆炸将全速从门出来。

 

异议5:带宽

 

       除了上述克隆成年AGI,其将允许以目前在人类中不可用的方式的知识的乘法之外,还存在AGI可以使用高带宽信道彼此通信的事实。这是AGI之间的带宽,它是可能影响智能爆炸的两种类型的带宽因素之一。

 

       除了AGI系统之间的通信速度之外,在单个AGI内部还可能存在带宽限制,这可能使得难以增加单个系统的智能。这是内部AGI带宽。

 

       第一个单中间AGI带宽不太可能对智能爆炸有很强的影响,因为有很多研究问题可以分成可分解寻址的组件。 AGI之间的带宽将变得明显,如果我们开始注意到AGI坐在周围没有工作做智能放大项目,因为他们已经到了一个不可避免的停止点,并等待其他AGI获得一个免费的频道与他们谈话。考虑到可以改进的智能和计算的不同方面的数量,这个想法看起来是不可能的。

 

除特别注明外,本站所有文章均为 赢咖4注册 原创,转载请注明出处来自超智能机器可以设计更好的机器

留言与评论(共有 0 条评论)
   
验证码:
[lianlun]1[/lianlun]