aihot  2017-06-13 06:49:24  智能硬件 |   查看评论   
微软在线帝国下一波赢咖4
      项目弹射器的原型硬件,六年的努力重建微软在线帝国下一波赢咖4 ---和更多。
 
      这是2012年12月,道格·伯格站在史蒂夫·鲍尔默的前面,试图预测未来。
 
      Ballmer是微软的大,秃头,热情的首席执行官,坐在99楼底层的演讲室,公司在西雅图外的蓝天研发实验室的基地。 桌子绕着房间的外侧弯成U形,Ballmer被他的顶尖中尉包围,他的笔记本电脑打开。 Burger是一位计算机芯片研究员,四年前加入该公司,正在向高管们提出一个新的想法。 他称之为项目弹射器。
 
      Burger解释道,技术世界正在进入一个新的轨道。在未来,一些巨型互联网公司将经营一些巨大的互联网服务,这么复杂,与以前不同,这些公司将不得不建立一个全新的架构来运行它们。他们不仅会创建驱动这些服务的软件,还会创建硬件,包括服务器和网络设备。 Project Catapult将为微软的所有服务器(数百万台)配备专门的芯片,公司可以为特定的任务重新编程。
 
      但是在汉堡甚至可以得到关于芯片的部分,鲍尔默从他的笔记本电脑抬头。当他访问微软研究时,鲍尔默说,他预计研发更新,而不是战略简报。 “他刚刚开始烤我,”汉堡说。微软已经花了40年建立电脑软件,如Windows,Word和Excel。它只是在互联网上找到它的脚。它当然没有工具和工程师需要编程计算机芯片 - 这项任务是困难,耗时,昂贵,有点怪异。微软编程计算机芯片就像可口可乐制作鲨鱼翅汤。
 
      汉堡装饰,只有轻微的秃头,和冷静的分析,像许多好的工程师 - 推回。他告诉巴尔默,像谷歌和亚马逊这样的公司已经朝着这个方向发展。他说,世界上的硬件制造商不会提供Microsoft需要运行的在线服务。他说,如果没有构建自己的硬件,微软将落后。鲍尔默不是买它。但过了一会儿,另一个声音加入了讨论。这是齐路,谁运行宾,微软的搜索引擎。 Lu的团队已经和Burger谈了可重新编程的计算机芯片近两年了。项目弹射是可能的,卢说:他的团队已经开始。
 
      今天,Burger和Lu相信的可编程芯片将改变世界上所谓的现场可编程门阵列。 FPGA已经成为Bing的基础,并且在未来几周,他们将推动基于深度神经网络的新的搜索算法 - 基于人类大脑结构的赢咖4 - 执行这个赢咖4比普通芯片快几个数量级。在中,23毫秒,而不是四秒的什么都没有在你的屏幕上。 FPGA也推动Azure,该公司的云计算服务。在未来几年,几乎每个新的Microsoft服务器都将包括一个FPGA。这是全球数百万台机器。 “这给了我们巨大的能力和巨大的灵活性,经济学的工作,”伯格说。 “这是微软的标准,全球架构。
 
      这不仅仅是Bing在追赶Google。项目弹射器标志着全球系统将来如何运行的变化。从美国的亚马逊到中国的百度,所有的互联网巨头都在补充他们的标准服务器芯片 - 中央处理单元或CPU,使用可以跟上赢咖4快速变化的替代芯片。微软现在每年花费在50亿至60亿美元之间,用于运行其在线帝国所需的硬件。所以这种工作“不再仅仅是研究”,Satya Nadella说,他在2014年接手了微软的首席执行官。“这是一个重要的优先事项。”这是Burger在99号楼解释的原因。这是什么驱使他和他的团队克服了多年的挫折,重新设计和制度熵,提供一种新型的全球超级计算机。
 
一个全新的,很老的电脑芯片
 
      2010年12月,微软研究员安德鲁·普特南离开西雅图度假,回到科罗拉多泉。圣诞节前两天,他还没有开始购物。当他开车去商场,他的电话响了。是汉堡,他的老板。 Burger将在假期后与Bing执行官会面,他需要一个可以在FPGA上运行Bing的机器学习算法的硬件设计。
 
      普特南拉进最近的星巴克,制定了计划。他花了大约五个小时,他还有时间购物。
 
      汉堡,47和普特南,39,都是前学者。 Burger在德克萨斯大学奥斯汀分校担任计算机科学教授9年,在那里他专攻微处理器,设计了一种名为EDGE的新型芯片。普特南曾在华盛顿大学工作了五年,担任研究员,在那里他实验了FPGA,可编程芯片已经存在了几十年,但大多用作原型设计其他处理器的方法。 Burger在2009年把Putnam带到了微软,在那里他们开始探索这些芯片可以加速在线服务的想法。
 
      甚至他们的老板也没有买。 “每两年,FGPAs”终于到达“,微软研究副总裁Peter Lee,负责监督汉堡集团。 “所以,和任何合理的人一样,当这场比赛进行的时候,我会翻转我的眼睛。”但是Burger和他的团队认为这个老想法的时间到了,Bing是完美的测试用例。
 
      微软的搜索引擎是一个单一的在线服务,可以运行在成千上万的机器。每个机器都由CPU驱动,虽然像英特尔这样的公司继续改进它们,但这些芯片不能跟上软件的发展,在很大程度上是由于赢咖4的新浪潮。像Bing这样的服务超过了摩尔定律,规范的观点是处理器中的晶体管数量每18个月翻一番。原来,你不能只是抛出更多的CPU的问题。
 
      但另一方面,为每个新问题创建专用的专用芯片通常太贵了。 FPGA弥合了差距。他们让工程师构建比组装线通用CPU更快,更节能的芯片,但可定制,因此他们可以处理不断变化的技术和商业模式的新问题。
 
      在节日后的会议上,Burger将Bing的执行官称为FPGA,作为加速搜索的低功耗方式。执行官是不服从的。所以在接下来的几个月里,汉堡和团队采取了普特南的圣诞节素描,并建立了一个原型,表明它可以运行宾果的机器学习算法的速度快100倍。 “那时他们真的有兴趣,”吉姆拉鲁斯说,当时的团队的另一个成员,谁现在是在洛桑École理工学院院长院长。 “他们也开始给我们一个真的很难的时间。
 
      该原型是一个带有六个FPGA的专用盒,由一个装满服务器的机架共享。如果盒子在卷曲上,或者机器需要六个以上的FPGA,越来越多地考虑到机器学习模型的复杂性,所有这些机器都运气不好。 Bing的工程师讨厌它。 “他们是对的,”拉鲁斯说。
 
      所以Burger的团队花了更多的几个月来建立第二个原型。这是一个电路板,插入每个服务器,并只包括一个FPGA。但它也连接到所有其他服务器上的所有其他FPGA板,创建一个巨大的可编程芯片池,任何Bing机器可以进入。
 
      这就是车上装有齐鲁的原型。他给了汉堡这笔钱来建造和测试1600多台配备了FPGA的服务器。该团队在中国和台湾制造商的帮助下花了六个月的时间来构建硬件,他们在微软园区的实验数据中心安装了第一个机架。然后,一天晚上,灭火系统意外发生了。他们花了三天的时间让机架恢复原状 - 但它仍然工作。
 
      在2013年和2014年的几个月中,测试显示,Bing的“决策树”机器学习算法比新芯片快40倍。到2014年夏天,微软公开表示,很快这个硬件将迁移到实时Bing数据中心。然后公司把刹车。
 

除特别注明外,本站所有文章均为 赢咖4注册 原创,转载请注明出处来自微软在线帝国下一波赢咖4

留言与评论(共有 0 条评论)
   
验证码:
[lianlun]1[/lianlun]