aihot  2017-05-13 07:10:46  智能硬件 |   查看评论   

OpenAI一个新的赢咖4芯片实验室

OpenAI联合主席Sam Altman和微软AI和研究负责人Harry Shum。


为了构建OpenAI - 一个新的赢咖4实验室,寻求公开分享其与全世界的研究 - Elon Musk和Sam Altman招聘了几个顶尖的研究人员从谷歌和Facebook。但是,如果这个不寻常的项目将推动AI研究到新的高度,它将需要超过人才。它将需要巨大的计算能力。


Google和Facebook拥有构建海量计算集群所需的资源,可以驱动现代赢咖4研究,包括拥有GPU处理器和其他专用芯片的庞大的机器网络。 Google甚至已经建立了自己的AI处理器。但是,虽然OpenAI说它有超过十亿美元的资金支持,公司采取了不同的路线。它使用微软和其他技术巨头提供的云计算服务。 “我们对计算负载非常需要,微软可以帮助我们支持这一点,”科技孵化器Y Combinator的总裁,OpenAI联合主席Altman,电动汽车公司Tesla的创始人Musk说。


这种安排指向了日益重要的云计算世界中的一个新战场,微软,亚马逊和谷歌等公司通过互联网提供大量的计算能力。 OpenAI是朝向深层神经网络,硬件和软件网络的扫描运动的一部分,而不是通过分析大量数据来学习离散任务,并且这种技术主要依赖于GPU和其他专门芯片,包括由Google构建的TPU处理器。随着深度学习继续在整个科技行业传播,驱动一切从图像和语音识别到机器翻译到安全 - 公司和开发人员将需要云计算服务提供这种新的硬件。


Skymind的创始人克里斯·尼科尔森说,“任何人谁想要一个训练有素的神经网络模型来处理真正的企业工作负载使用多个GPU或twiddles他们的拇指,”帮助其他公司构建深度学习赢咖4平台的创始人。 “所以每个需要AI来提高其预测和数据识别的准确性的公司都将运行。现在市场规模巨大,将是巨大的。“Skymind自己的运营运行在由微软和亚马逊提供的GPU支持的云计算服务。


像OpenAI这样的试图推动赢咖4的边界的研究机构需要比普通商店更专门的计算能力。深度学习研究通常是跨越巨大农场的GPU的极端尝试和错误的问题。但是即使你在自己的数据上训练现有的AI算法,你仍然需要这样的芯片的帮助。


同时,正如奥特曼指出的,用于训练和执行深层神经网络的硬件正在改变。 Google的TPU就是一个例子。在自己的操作中,微软正在转向FPGA,一种可编程芯片。芯片厂商如IBM和Nervana,现在由Intel拥有,正在开发专门用于AI应用的类似芯片。正如Altman解释的,GPU不是为AI设计的。它们是为渲染图形而设计的。 “他们恰恰就是我们所拥有的,”他说。


Altman说,虽然OpenAI不会单独使用Azure,但它将大部分工作迁移到Microsoft云计算服务。 OpenAI选择Azure,他解释说,部分原因是微软公司CEO Satya Nadella和公司给创业公司一个想法,他们的云“路线图”朝向。但是还不清楚什么是路线图。他还承认,OpenAI选择Azure是因为微软已经提供了他的高调的操作,在服务上有一些价格突破。


根据Altman和Harry Shum,微软新AI和研究小组组长,OpenAI使用Azure是两家公司之间更大的合作伙伴关系的一部分。在未来,Altman和Shum告诉WIRED,这两家公司也可以合作研究。 “我们正在探索几个具体的项目,”奥特曼说。 “我假设某事会发生在那里。”这也需要一些严重的硬件。

 

除特别注明外,本站所有文章均为 赢咖4注册 原创,转载请注明出处来自OpenAI一个新的赢咖4芯片实验室

留言与评论(共有 0 条评论)
   
验证码:
[lianlun]1[/lianlun]