在一篇博文中,谷歌负责系统基础设施的副总裁阿明·瓦赫达特https://cloud.google.com/blog/topics/systems/the-past-present-and-future-of-custom-compute-at-google“target=”\u blank“rel=”noopener noreferrer“data component=”externalLink“>简单地说就是:“[片上系统]是新的主板,“他写道。
云计算巨头,总是需要更多的服务器计算能力,到目前为止,它一直依赖主板作为集成点,CPU、网络、存储设备,自定义加速器和内存都结合在一起;但Vahdat认为,随着谷歌的计算正处于拐点,需要迈出下一大步。
“为了获得更高的性能和更低的功耗,我们的工作负载需要更深入地集成到底层硬件中,”Vahdat说。
在SoC上,谷歌认为,不同组件之间的延迟和带宽可以提高几个数量级,与在主板上组装单个asic相比,功耗和成本更低。”就像在主板上一样,各个功能单元(如CPU、TPU、视频转码、加密、压缩、远程通信、安全数据摘要等)来自不同的来源。我们在有意义的地方购买,在必须的地方自己建造,并致力于建立有利于整个行业的生态系统,”Vahdat说。
Vahdat宣布,英特尔老将Uri Frank将加入谷歌的工程副总裁行列,从事服务器芯片设计,进一步表明,谷歌准备在更高效芯片的竞争中加大努力。
“谷歌设计并建造了一些世界上最大、最高效的计算系统,“弗兰克说”很长一段时间以来,定制芯片一直是这一战略的重要组成部分。”
谷歌多年来一直在设计自己的芯片,生产适应特定用例的硬件,以期比AMD或Nvidia等公司销售的通用芯片更有效地满足计算需求。
随着在云计算方面,谷歌的数据中心对处理能力的需求越来越高,这也是该公司内部工程师制造出适应特定需求的定制芯片的原因。例如,2015年谷歌推出了Tensor Processing Unit(TPU),它运行在公司的数据中心,以提高提供实时语音搜索等服务的机器学习应用程序的性能,图片对象识别和交互式语言翻译。
定制芯片被认为是揭穿摩尔定律的有效方法,通过构建高效且有针对性的硬件,能够应对计算能力需求的指数级增长。
“我们不再将组件集成在主板上,在主板上,组件之间用几英寸长的导线隔开,而是转向多个功能位于同一芯片上或内部多个芯片上的片上系统设计Vahdat说:“一个软件包”随着与底层硬件的深入集成,更高的性能将以更低的功耗为代价,这将反过来推动新的效率和规模。SOC还将允许更多的定制,能够专门针对单个应用程序;尽管面临的挑战是,尽管目前云中提供的服务多种多样,但这样做的速度仍将足够快。
随着越来越多的竞争对手已经转向定制SOC,很自然,谷歌会将精力集中在开发自己的技术上。早在2010年,苹果就率先设计了内部soc,当时这家库珀蒂诺(Cupertino)巨头将iphone的内部soc改为基于ARM的内部soc;如今,这项技术已成为包括ipad和苹果手表在内的许多产品的基础。
,但更多的技术:军队在向人工智能、无人机和网络转移时缩减规模
project gigabit:first areas to get high broadband speed升级显示