谷歌云端服务步步为营:继搭载英伟达K80 GPU后,推出P100GPU
谷歌云平台于昨日宣布在其GPU运算云端服务中,将增加使用功能更强大的英伟达GPU——P100 GPU。
继亚马逊和微软之后,谷歌也推出其GPU运算云端服务,致力于为用户加速其工作负载,主要包括机器学习训练和推理、地球物理数据处理、模拟、地震分析、分子建模、基因组学及其他高性能计算用例。Google此前表示将透过VM来提供3种伺服器专用的GPU加速器,来提供全球云端用户租用,包括英伟达的Tesla K80和Tesla P100,以及了AMD新款GPU加速器FirePro S9300 x2。此前谷歌云平台采用的伺服器专用GPU加速器为英伟达的K80 GPU,每个K80 GPU配置了2496个流处理器和12 GB的GDDR5内存。
谷歌云平台此次增加使用的英伟达Tesla P100 GPU是英伟达于去年发布的一款能用于深度学习训练的GPU加速器,采用新一代Pascal架构设计,核心数高达3584个流处理器,其内含的电晶体数超过了150亿颗,双精度浮点运算能力则达到5.3万亿次,单精度运算速度10.6万亿次,半精度运算速度21.2万亿次。
与传统的解决方案相比,云GPU具有高灵活性、高性能以及成本节约的优势。
- 灵活性:谷歌自定义的VM形状和增量云GPUs具有高度的灵活性,其自定义的CPU、内存、磁盘以及GPU配置能满足客户的多种需求。
- 高性能:谷歌声称这种云GPUs可以在passthrough模式下,提供裸机性能,其每个VM上安装4个P100和8个K80 GPUs。
- 低成本:谷歌表示价格按分钟计费,最低消费时长是10分钟。和往常一样,用户只需按使用的量支付费用。这样就不需要自己维护一个GPU集群,在零资本投资下获得高速的深度学习和机器学习训练。此外还享受折扣,折扣高达30%。
- 云端整合:云GPI可以在所有级别的堆栈中使用,就基础设施而言,计算引擎和容器引擎允许用户使用VM或容器来运行GPU工作负载。对于机器学习,允许云机器学习使用GPU来减少训练模型的时间。
谷歌在其声明中表示,其NVIDIA Tesla P100和K80 GPU服务将在全球四个地区进行部署,包括美国西部的俄勒冈州,美国东部的南卡罗来纳州,比利时以及中国台湾。谷歌早期云平台的采用者是Shazam,为其提供音乐识别服务。
Shazam的网站管理工程主管Ben Belchak表示:“对于某些任务而言,英伟达GPU是相比于传统CPU,具有高性价比和高性能。GPU在Shazam的音乐识别工作中具备很好的性能。我们将用户输入的音频片段与歌曲库内4000多万首歌进行匹配。我们把每首歌编译成自定义的数据库格式,并将它们加载到GPU内存中。每当用户搜索歌曲时,我们的算法便使用GPU来搜索数据库,直到找到用户想要的歌曲为止,其每天的运行次数大约为2000万次。”