英伟达表示,它的使命是让人工智能民主化,让每一家企业都能更方便地使用人工智能,而且它的价格只有六位数,它正在开放其最近发布的GTC公告引入了基本命令软件来控制AI工作负载,Nvidia表示,它已经与NetApp联手推出了基于云计算的基地指挥平台,该平台将在北半球夏季提供每月9万美元的超级硬盘接入服务
NetApp提供闪存并管理客户,Nvidia拥有位于Equinix数据中心的设备
“这里的目的是,客户可以访问这台功能强大的超级计算机,SuperPad只需租用,他们可以体验,他们可以完成自己的工作,从那里他们可以毕业,要么购买自己的SuperPad,要么去大规模地做人工智能,例如在公共云中,Nvidia企业计算主管Manuvir Das说
“这样做的目的是创建一个真正的混合模型,对于客户来说,这是一个用于提交作业和完成所有人工智能工作的单一界面。这个接口可以用于他们自己的内部部署的超级设备,也可以用于云计算中带有gpu的实例的基础设施,但无论哪种方式都是相同的体验。”
Das补充说,提供给客户的最小占地面积将是三台或四台DGX A100机器聚集在一起,Nvidia表示,使用Base命令的客户可以将人工智能工作负载部署到AWS SageMaker上,对Google云的支持很快就会到来
对于买不起SuperPod的客户,Nvidia正在开放内部技术,允许系统制造商“取出DGX内部设计的所有单个部件”
周二,Computex宣布推出新系统,使用华硕、戴尔科技、Gigabyte、QCT和Supermicro的BlueField-2数据处理单元(DPU)
“BlueField DPU将基础设施任务从CPU转移到DPU,使更多的服务器CPU内核可用于运行应用程序,从而提高服务器和数据中心的效率,”该公司表示
“DPU为每台服务器放置一台‘计算机在计算机前面’,提供与服务器应用程序域隔离的独立、安全的基础设施配置。这允许在虚拟服务器和裸机服务器上实现无代理工作负载隔离、安全隔离、存储虚拟化、远程管理和遥测。”
预计使用BlueField-2的服务器将在今年晚些时候出现,一旦规范正式化,“多个”将通过Nvidia认证
Nvidia补充说,它正在扩大其认证范围,以包括基于Arm的CPU,服务器将于2022年推出。
“现在越来越多的服务器配备了CPU、GPU和DPU。大量的计算工作都是在GPU上完成的,而DPU则负责管理网络,保护网络安全,并提供防火墙等安全功能
“例如,在VMware的Monterey项目中,甚至虚拟机监控程序的功能都转移到了DPU上,因此这意味着主机CPU可以被更多地看作是一个编排器,它管理服务器上工作负载中发生的事情的生命周期,而不是作为计算机引擎。”
该公司表示,它正在与Gigabyte合作开发一个开发工具包,其中包含一个Arm Neoverse Ampere Altra处理器、一对100 GPU和BlueField-2 DPU,以及搭载的Nvidia HPC SDK
“我们的想法是,全球的应用程序开发人员。。。Das说:“我们有超过250万的开发者使用CUDA针对GPU编程,所有这些开发者和系统制造商都可以使用开发工具包作为蓝图,为基于Arm的系统准备应用程序。”