VMware支持Graphcore推出大规模数据中心

2021年10月21日//尼克费海提
VMware支持Graphcore推出大规模数据中心
作为数据中心人工智能硬件分解计划的一部分,VMware的镭项目将支持Graphcore硬件

英国领先的人工智能芯片初创公司GraphCore签署了一项关键协议,将在数据中心支持其人工智能硬件。

作为硬件分解计划的一部分,VMware的镭项目将支持Graphcore的系统。这将允许在虚拟化的多租户环境中通过主数据中心网络共享资源,而不会增加用户或管理软件的复杂性。

位于布里斯托尔的GraphCore公司已经从戴尔、BMWi Ventures和Roberty Bosch Venture Capital等投资者那里筹集了6.82亿美元资金,用于其基于名为Colossus芯片的智能处理单元(IPU)人工智能技术。

GraphCore的IPU-POD机架的网络分解架构,加上镭项目中灵活的资源管理特性,将允许大规模培训模型,并在可靠的基于人工智能服务的生产环境中部署模型。

VMware已经是企业虚拟化软件和云工具的领先供应商,镭项目是另一个关键的发展。这支持在各种不同的硬件架构上远程、池化和共享资源,包括Graphcore ipu和ipu - pod。

GraphCore还推出了具有32 petaFLOPS和64 petaFLOPS人工智能运算能力的ipu - pod。这些系统非常适合云超尺度者、国家科学计算实验室和拥有大型AI团队的企业,以便在整个系统中更快地培训大型基于transformer的语言模型,在生产中运行大型商业AI推理应用程序。通过将系统划分为更小、更灵活的vpod,这使得更多开发人员可以访问IPU。

IPU-POD128和IPU-POD256目前已由ATOS和其他系统集成商合作伙伴交付给客户,并可在云中购买。

“我们很乐意将Graphcore的IPU-POD128和IPU-POD256系统加入到我们的Atos ThinkAI产品组合中,以加速我们客户探索和部署更大、更创新的AI模型的能力,这些领域包括学术研究、金融、医疗保健、电信和消费互联网。”雅托高级副总裁、高性能计算和量子业务主管Agnès Boudot说。

KT是最早部署IPU-POD128的客户之一。“KT是韩国第一家利用Graphcore ipu在我们IDC的高密度人工智能专用区域提供‘超大型人工智能服务’的公司。目前,许多公司和研究机构正在使用上述服务进行研究和PoCs或对议会联盟进行测试。

Graphcore相关文章

设备虚拟化和远程功能通过大量高性能AI加速器交付,无需明确的代码更改或用户干预。开发人员可以完全专注于他们的模型,而不是特定于硬件的编译器、驱动程序或软件优化。

通过通过标准网络动态地连接到硬件(如IPU- pod),用户将能够利用高性能架构(如IPU)来大规模加速要求更高的用例。

GraphCore的IPU在硬件级别上具有高度的细粒度并行性,支持单精度和半精度浮点运算,是稀疏计算的理想选择,无需对底层数据的稀疏性有任何特定的依赖。该处理器既适用于深度神经网络的训练,也适用于深度神经网络的推理,但能够跨数千个处理器扩展的支持软件是关键。

与采用传统的SIMD/SIMT体系结构(如gpu)不同,IPU使用具有超高带宽、片内存储器和低延迟/高带宽互连的MIMD体系结构,以实现高效的片内和片间通信。这使得ipu适用于数据中心规模的分布式硬件上的并行机器学习模型。

IPU-POD体系结构支持从一个ipu扩展到数千个ipu。这独立于cpu,并帮助用户满足工作负载对计算资源的特定需求。例如,用于自然语言处理任务的机器学习模型通常不是CPU密集型的,而计算机视觉任务可能是由于CPU被用于图像预处理或增强等任务。

除了支持核心机器学习软件框架,与虚拟化、编排和调度软件的集成对于大规模部署至关重要。

Graphcore软件栈中的资源管理组件方便了与各种云供应和管理栈的集成,比如VMware提供的支持公共云、混合云或内部基础设施操作的云供应和管理栈。

www.graphcore.com

其他文章在eeNews欧洲


你确定吗?

如果您访问désactivez les cookies,您就可以访问我们的网站。

你可以给我们être再riger vers谷歌。

Baidu