最新发布
当前位置: 校园网 > 知识百科

机器学习云工作负载提供了新的GPU选项

更新时间:2023-07-04 19:09责任编辑:罗小东关键词:工作

现在,在Google的云计算平台上运行机器学习和高性能计算工作负载的组织有了提高应用程序性能的新选择。该公司本周宣布,将向Google Compute Engine基础架构即服务(IaaS)组件和Kubernetes Engine容器编排系统的客户提供Nvidia的Tesla V100图形处理单元(GPU)的Beta版。

企业可以利用新的硬件加速器来提高大型,计算量很大的工作负载的性能。Google产品经理Chris Kleban和Ari Liberman在发布新GPU可用性的博客中说:“当今最苛刻的工作负载和行业需要最快的硬件加速器。”

他们说,Nvidia Tesla V100通过在某些高端配置中实现高达1 petaflop的硬件加速性能来满足要求。

Nvidia公司介绍的Tesla GPU V100作为最先进,最强大的GPU已经建成日期为加速人工智能,图形和HPC工作负载。GPU基于Nvidia Volta,该架构是该公司在其上构建用于AI和其他高端应用程序的平台。据Nvidia称,Tesla V100 GPU提供32GB和16GB配置,并在单个处理器中提供相当于100个CPU的性能。

Google使用该技术的目标是为客户提供当前可用的最快的硬件加速器。两位谷歌产品经理说,组织在一个虚拟机中最多可以使用8个Tesla V100 GPU,96个虚拟CPU和624GB内存。

他们指出,结合Nvidia Nvlink互连,组织在运行深度学习和HPC工作负载时将最终能够获得300GB的GPU带宽,并将性能提升高达40%。

目前,和欧洲某些地区的Google云客户可以使用新的Nvidia GPU。每个V100 GPU的起价为按需虚拟机每小时2.48美元,低50%,或抢占式VM每小时1.24美元,这是运行大型批处理工作负载的一种相对低成本的选择。每秒计费也适用于启用了V100的工作负载。

除了Tesla V100的beta版可用性外,Google还宣布了Tesla P100的全面可用性,该公司已将其定位为最适合CUDA(计算统一设备架构)并行计算工作负载的GPU。

P100通过支持每个VM最多支持四个GPU,96个虚拟CPU和624 GB内存的配置,为组织提供了价格与性能之间的平衡。根据Google的数据,支持P100的系统的价格从按需VM的1.46美元开始,到可抢占VM的0.73美元。

与所有GPU一样,Google的客户将能够在各种自定义配置和存储选项中使用Nvidia的Tesla V100和P100 GPU,以满足他们的特定要求,并只为所使用的资源付费。

校园网——收录全国各地学校网站。
网站简介 | 联系方式 | 网站地图 CopyRight 2014-2023 www.15033.cn, Inc. All Rights Reserved icp备案号 闽ICP备2023005518号