查看完整版本: [-- [10.20]英特尔推出神经网络处理器Nervana:采用独特的无缓存架构 --]

秋无痕论坛 -> 『秋无痕IT资讯区』 -> [10.20]英特尔推出神经网络处理器Nervana:采用独特的无缓存架构 [打印本页] 登录 -> 注册 -> 回复主题 -> 发表主题

opteron1207 2017-10-20 15:01

 2017年10月18日 稿源:cnBeta
  英特尔 CEO Brian Krzanich 刚刚在《华尔街日报》举办的 D.Live 大会上发布了自家性能最强、专为深度学习而打造的神经网络处理器 Nervana 。其声称这颗 ASIC 芯片可用于处理人工智能方面的工作(比如矩阵乘法和转换),这是它与 CPU 和 GPU 这样的通用计算硬件的最大区别。尽管当前英特尔在芯片架构上没有太深入的动力,但 Nervana 创造者 Naveen Rao 在一篇单独的博客文章中写到:

  其从一开始就能理解所涉及的操作和数据动作,因此该芯片可以不像今日的 CPU 或 GPU 那样需要一个标准的缓存层次结构。
  相反,其内存管理显然是 100% 在软件中完成的。Rao 声称,与主打通用计算的竞品相比,这意味着该芯片能够更好地压榨芯片性能。
  在更早的一篇博客文章中,该公司表示,由于仅包含金酸相关的硬件,Nervana 可以省去与缓存控制和相干逻辑有关的电路,从而囊括更多的计算资源。
  在那时,Nervana 还计划为该芯片搭配高达 32GB 的四堆栈 HBM 运存,且暗示已通过某种形式实现了神经网络计算(NNP)。
  NNP 的另一潜在创新,在于对某些数据类型的处理。英特尔声称 NNP 提供了一种全新的“拐点”(Flexpoint)数字格式。
  该公司称:“Flexpoint 允许通过固定点乘和加法来实现标量计算,也可借助共享指数来实现大动态范围”。
  该特性还使得 NNP 可以在给定核心面积上封装进更多的操作部件,同时减少每个部件工作时的能耗。此外,每个 NNP 也可包含专门用于和其它神经网络处理器通讯的片内互联芯片。
  在过去有关 Nervana Engine ASIC 的描述中,该公司计划为每颗芯片上具有弹性计算力的内部或互联连结点引入“六个双向高带宽链接”—— 要么增加用于任务的计算资源的数量、要么增加 NNP 集群的规模大小。
  Krzanich 表示,当前英特尔正在制定数代 Nervana NNP 产品。而该公司新闻稿中也提到,未来这些产品有助于在 2020 年将深度学习成绩提升百倍的目标。
  最后,在一个单独的播客节目中,Rao 表示,随着产品的成熟,该公司还与 Facebook 在 NNP 上展开了合作,更多细节可留意该他们的后续报道。
  [编译自:TechReport , 来源:Intel]

zbking1314 2017-10-20 15:12
谢谢分享,了解一下

itisif 2017-10-20 18:34
英特尔该努力了

hexj9 2017-11-23 21:07
这个我就看看了解一下而已了哦。


查看完整版本: [-- [10.20]英特尔推出神经网络处理器Nervana:采用独特的无缓存架构 --] [-- top --]



Powered by PHPWind v7.3.2 Code © 2003-08 PHPWind
Time 0.036902 second(s),query:3 Gzip enabled

You can contact us