英特尔架构负责人Raja Koduri。
芯片巨头英特尔表示,用于人工智能的神经网络处理正成为每种芯片工作量的主要部分,周四,该公司在其一年一度的“架构日”仪式上公布了即将推出的处理器的细节。“神经网络是新的应用程序,”Raja M。英特尔加速计算系统和图形集团高级副总裁兼总经理科杜里通过微软团队接受ZDNet采访时说
Koduri说:“我们看到的是,每个插座,不是CPU、GPU、IPU,所有东西都会有矩阵加速。”科杜里声称,通过加速神经网络核心的矩阵乘法运算,英特尔将拥有最快的机器学习、深度学习和任何形式的人工智能处理芯片。
我们是最快的人工智能CPU,我们的Sapphire Rapids,我们新的数据中心架构,是人工智能工作负载最快的,我们的新GPU,到目前为止还没有人,已经有几十家初创公司,但没有人在培训基准上击败Nvidia,我们今天已经证明了这一点。”
英特尔展示了一个演示,即将推出的独立GPU Ponte Vecchio在一个通用基准神经网络任务中击败了Nvidia的A100 GPU,运行ResNet-50神经网络对来自ImageNet照片库的图像进行分类。
英特尔声称其Ponte Vecchio GPU的预生产版本可以在深度学习应用程序中对神经网络性能进行标准测量,这是Nvidia的最佳选择,其中ResNet-50神经网络必须经过训练,以每秒处理ImageNet图片采集中的数千幅图像。
英特尔声称,与英伟达和其他公司相比,在ImageNet上使用ResNet-50进行预测的速度更快。
在演示中,英特尔声称Ponte Vecchio,在前期制作中,silicon能够在一秒钟内处理3400多张图像,超过之前3000张图像的记录。这是用于神经网络训练的。在推理领域,当一个经过训练的神经网络进行预测时,Ponte Vecchio能够在一秒钟内对43000多幅图像进行预测,超过了它所引用的每秒40000幅图像的竞争最高分数。
Intel的Xeon芯片往往在人工智能推理市场上占据主导地位,但英伟达一直在取得进展。英特尔在神经网络培训领域的份额很小,而Nvidia凭借其GPU在该领域占据主导地位。
科杜里表示,该公司打算在人工智能芯片MLPerf,该公司声称对ResNet-50和其他类似基准任务拥有吹嘘权。
架构日重点关注英特尔的路线图,即其芯片的电路设计将如何布局芯片上的晶体管和功能块,如算术逻辑单元、缓存和管道。
架构变化,对于英特尔或任何公司来说,它都带来了新的“内核”,即处理器的核心,控制“数据路径”的管理方式,即数字的存储和检索,以及控制路径,即指令在芯片周围的移动
英特尔此前已经披露了新CPU的许多方面,包括去年的架构日。该公司必须让软件设计人员在其处理器准备上线前几年就开始考虑和开发其处理器。
例如,全世界都知道英特尔将向市场推出一种新的客户端计算CPU,称为Alder Lake,它结合了两种CPU。周四,英特尔宣布将这两个原代号为Golden Cove和Gracemont的公司更名为“Performance Core”和“Efficient Core”。ZDNet的Chris Duckett提供了更多详细信息
此外:英特尔推出了Alder Lake混合体系结构,该体系结构具有高效和高性能的内核
今天的最新披露是,新CPU将使用一种称为“线程控制器”的硬件结构。线程控制器以一种可调整的方式控制处理器上执行线程的调度方式“操作系统与硬件交互的整个方式都是一种硬件创新。”英特尔称,“线程控制器”提供了内核状态和线程指令组合的低级别遥测,授权操作系统在正确的时间将正确的线程放在正确的内核上。”
线程控制器,一个硬件调度程序,将接管一些管理操作系统指令线程的职责,是英特尔科技日讨论的新项目之一。
另一项新披露是芯片将如何利用内存带宽技术。例如,据透露,英特尔即将推出的数据中心处理器Sapphire Rapids将支持PCIe Gen 5、DDR 5内存接口。
英特尔透露,其即将推出的数据中心处理器Sapphire Rapids,其Xeon系列的下一代,将具有某些性能方面。例如,该芯片将使用英特尔称之为AMX或“高级矩阵扩展”的方法,对8位整数数据类型每时钟周期执行2048次运算。同样,重点是神经网络类型的运算。AMX是一种特殊的矩阵乘法能力,它可以在芯片的各个分片之间进行运算。Sapphire Rapids由四个独立的物理块组成,每个物理块都有CPU、加速器和输入/输出功能,但在操作系统看来就像一个逻辑CPU。
英特尔声称,Sapphire Rapids通过AMX等扩展为AI进行了优化。
Sapphire Rapids就是一个例子,说明英特尔越来越将跨多个基板的芯片物理结构视为一种优势。多线程技术的使用例如,le physical tiles,而不是一个单片半导体芯片,利用了英特尔称之为嵌入式多芯片互连桥的技术。
周四的演讲中还对英特尔工艺技术进行了大量讨论,该公司近年来一直在寻求解决这一问题。
科杜里说,由于摩尔定律传统晶体管尺寸缩放的局限性,利用英特尔为芯片制造带来的其他优势非常重要,包括在一个封装中堆叠多个芯片。
科杜里说:“今天,对于架构师来说,利用我们的工艺和封装工具箱中的每一种工具,比十年前制造这种东西要重要得多。”以前,它是,是的,是的,是的,传统的Dennard缩放,摩尔定律处理它,用我的新CPU,把它放在新的进程节点上,你就完成了。”
他指的是IBM的科学家Robert Dennard在20世纪70年代的观察,随着越来越多的晶体管被封装到芯片的正方形区域,每个晶体管的功耗都会降低,因此处理器的能效会更高。Dennard标度被认为是有效的死亡,就像摩尔定律一样
Alder Lake和Sapphire Rapids都将由Intel使用其所谓的“Intel 7”处理技术建造。这是对所谓的“10nm增强型超细”的更名,该公司在10纳米工艺中增加了一种更高效的三维晶体管,即FinFet,以提高能源使用效率(英特尔7的命名是该公司在7月份公布的对英特尔工艺技术进行广泛更名的一部分。)
同时,英特尔的部分零件将使用台湾半导体制造厂生产,该厂为英特尔的竞争对手提供产品。这种有选择地外包的做法是英特尔现有外包晶体管生产方式的延伸。这就是首席执行官帕特·盖辛格(Pat Gelsinger)所称的英特尔“IDM 2.0”战略
今天,科杜里说,“这是建筑师的黄金时代,因为我们必须更有效地使用这些工具。”科杜里回应了加州大学伯克利分校教授大卫·帕特森(David Patterson)在2019年提出的一项主张,即计算机建筑师必须补偿设备物理,这意味着摩尔定律和丹尼德缩放不再占主导地位
当然,随着Nvidia在GPU方面的不断创新,现在正计划在未来几年推出自己的CPU“Grace”,以及像大脑系统公司这样的初创公司正在构建全新的芯片,英特尔在人工智能领域的目标不仅仅是使其处理器对人工智能更加友好。必须改变人工智能领域的工作方式
当被问及英特尔的各种创新可能如何改变神经网络的构建方式时,科杜里说,英特尔和其他地方正在大量涌现的各种处理器类型必须进行更多的合作,减少功能分离,才能在任务上进行合作
“工作负载肯定朝着CPU、GPU、DPU和内存的方向发展,它们之间的相互交流比现在的相互交流要多。”
“它们将相互交流,它们将在这些东西之间进行更密切的协作,以完成工作,“比你在前五年的深度学习中看到的还要多。”
科杜里将2016年至2021年称为他所认为的“前五年的深度学习”未来五年,所有这些都将更加紧密地联系在一起。”
RISC-V首席执行官:80年代以来改变计算的最大机会
AI初创公司Abacus.AI为企业开启实时深度学习系统
DeepMind推出PoundNet,请不要称之为“思考”
小心,GPT-3,以下是AI21的“侏罗纪”语言模型
通过注册,您同意使用条款并确认隐私政策中概述的数据实践。
您还将免费订阅ZDNet的今日技术更新和ZDNet公告时事通讯。您可以随时取消订阅这些时事通讯。
您同意接收CBS公司系列的更新、提醒和促销活动,包括ZDNet的今日技术更新和ZDNet公告时事通讯。您可以随时取消订阅