英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

栏目: 数据库 · 发布时间: 5年前

本文约902字,需2分钟阅读

人工智能是当下最火热的话题,从手机到超算都在其中增加AI的AI运算能力。英特尔在台北电脑展上推出了全新的Ice Lake处理器,其中增添的AVX512指令集以增强其AI运算性能。不过英特尔的想法不止于此,根据 Tom's Hardware的报道 ,英特尔在位于以色列海法的研发中心推出了一款针对推理运算的Nervana神经网络处理器,简称NNP-I。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎 图片来自 Tom's Hardware

这款处理器与常见的神经网络处理器不同的是,它将此前发布的Ice Lake处理器与Nervana神经网络处理器结合,组成这款NNP-I处理器。但这款处理器与Ice Lake处理器有很大的不同,英特采用了Ice Lake处理器的基础设计并做出了修改,将其中的Gen 11核显及显示模块去掉,将其替换成针对推理运算的AI加速器。同时英特尔还在这款处理器上添加了DSP引擎,用于未针对固定功能加速器优化的算法,为其他类型的AI运算提供兼容性。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

而CPU部分依旧采用多个英特尔Sunny Cove架构的x86核心,但并不知道其核心数目。英特尔产品工程总经理Oren Gershon模糊地称他们移除了一些其他的核心为AI加速器腾出额外的位置,所以这款处理器可能采用了两个处理器内核。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

英特尔提供了包括m.2等几种形式的加速卡样式,因此它可以安装在服务器主板的标准m.2接口或PCIe扩展卡上。与一些专为AI设计的定制芯片不同,这款产品几乎兼容所有的现代服务器,甚至可以根据需要为服务器添加多个NNP-I模块。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

英特尔也在软件方面进行了优化,在使用NNP-I加速器时,服务器可将全部神经网络推理运算转移到NNP-I处理器中,并在任务完成时通知服务器中的Xeon主处理器。而且由于NNP-I处理器拥有完整的I/O模块(拥有PCH),所以其可以访问处理所需的数据,而且英特尔称这并不会受到PCIe x4带宽的影响。

由于内部有全新的Sunny Cove架构的x86内核,所以NNP-I也有AVX512指令集,支持VNNI深度学习指令,所以它技术适用于任何类型的AI负载,英特尔也提供了编译器,为NNP-I加速器提供定制代码。如PyTorch及TensorFlow等机器学习框架,NNP-I加速器可以几乎无改动的运行支持这些框架的代码。

英特尔Ice Lake处理器的TDP为28W,而m.2接口有15W的功耗限制,但由于其可以插在PCIe扩展卡上,所以NNP-I加速器可以运行在更高的功耗下,以提供更好的性能。而具体性能方面英特尔并没有透露,但英特尔已经向早期客户提供样品,并在今年晚些时候大批量生产。


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

我看电商

我看电商

黄若 / 电子工业出版社 / 2013-6-1 / 39.00元

本书是作者近30年从事及电子商务管理的总结和分享。 近年来电商行业在中国迅猛发展,2012年网络市场规模达到13,000亿人民币,诞生了淘宝、天猫、京东、、凡客、唯品会……等一大批全新的网络公司,电子商务正在日益深入的影响着越来越多人的生活。同时,这个行业连年亏损,顾客服务良莠不齐,也广为人们所关注。作者从地面到电子商务,从跨国公司高管到管理民营企业,从开创天猫模式到带领上市,被业界称为中国......一起来看看 《我看电商》 这本书的介绍吧!

CSS 压缩/解压工具
CSS 压缩/解压工具

在线压缩/解压 CSS 代码

正则表达式在线测试
正则表达式在线测试

正则表达式在线测试

RGB CMYK 转换工具
RGB CMYK 转换工具

RGB CMYK 互转工具