“英特尔推出了两个用于深度学习培训和推理的Nervana AI加速器”
英特尔公布了基于nervana nnp架构的ai加速器的详细消息。 一个是为了在给定的电力预算内进行深度学习培训而从头开始设计的,另一个是为了在数据中心的部署中进行深度学习的推理。
Intelnervana神经互联网解决方案用于培训IntelnervanaNNP-t ) ai加速器。 代号为弹簧峰,由24个解析内核和4个hbm2内存裸芯片层叠而成,共计32gb。 中央芯片具有688mm的方形芯片,基于tsmc 16nm cln16ff +工艺。
tpc和hbm2堆栈以及其他组件(如管理cpu、hbm内存控制器和pcie gen 4.0控制器)安装在1200mm毫米见方的被动连接器中。 中央芯片的额定工作频率高达1.1ghz,功耗在150w到250w之间。
英特尔nervana nnp-t意味着解决当前和发展深层次学习培训的负担。 据英特尔称,这款ai加速器的目的是尽可能多地重用裸芯片上的数据,这解释了24个tpc的存储器子系统。 这减少了从hbm2存储堆栈中检索数据的昂贵过程。 该加速器为空冷,使用ocp加速器模块( oam )和pcie尺寸。
一种叫做spring hill的英特尔NERV ANA神经互联网推理解决方案( intel nervana nnp-i )用于深度学习推理。 用于m.2连接器,以完全不同的外形规格提供10~50w的功率范围。 它有一对10纳米的英特尔ICE lake CPU内核。
cpu核心与12个推理计算引擎( ice )联合采用,解决ai推理业务的负荷。 推理加速器包括24mb的共享高速缓存和用于访问lpddr4存储器系统的存储器控制器。 支持pcie gen 4.0和3.0的连接。
英特尔nervana nnp-i似乎有另一种pcie扩展卡。 有关越来越多的新闻,请参见各自的产品介绍: intel nervana nnp-t和intel nervana nnp-i。 关于那两个ai加速器,英特尔正式宣布完全可以浏览这里。
年,英特尔收购ai初创企业nervana加强ai投资组合,intel nervana nnp于年10月首次发布。 英特尔希望与新的至强可扩展解决方案一起挑战基于nvidia gpu的ai的立足点。
免责声明:雪球目录网免费收录各个行业的优秀中文网站,提供网站分类目录检索与关键字搜索等服务,本篇文章是在网络上转载的,本站不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系btr2031@163.com,本站的工作人员将予以删除。