Google 正式整合 Kubernetes 引擎与 GPU 服务

栏目: IT资讯 · 发布时间: 5年前

内容简介:最近,Google Cloud Services 加强了与深度学习和机器学习应用程序相关的许多功能。 它首先扩展了虚拟主机的硬件规格,并推出了具有大容量内存的 ultramem 规格虚拟机,允许用户执行高性能计算,同时还实现了公共...

最近,Google Cloud Services 加强了与深度学习和机器学习应用程序相关的许多功能。 它首先扩展了虚拟主机的硬件规格,并推出了具有大容量内存的 ultramem 规格虚拟机,允许用户执行高性能计算,同时还实现了公共云平台。 GPU 和 TPU 也将在不久的将来上线。 企业可以以比按需服务更便宜的价格消费 GPU 和 TPU 资源。 这一次,Google 宣布公共云 GPU 服务现已正式与 Kubernetes Engine(GKE)集成。

Google 正式整合 Kubernetes 引擎与 GPU 服务

目前,GCP 的 GPU 硬件共有三种选择,从入门级 K80 的价格到中级  P100和高端 V100,允许用户根据需要进行选择。 对于想要使用新功能的用户,Google 现在还提供 300 美元免费试用版。

在此版本发布之后,公司在 GKE 环境中运行的容器应用程序将能够使用 GPU 服务并执行 CUDA 工作负载。谷歌表示:“您可以利用 GPU 的强大处理能力,同时无需管理虚拟机的工作。”它可以与市场上正式推出的抢先式 GPU 服务一起使用。这将降低机器学习操作的成本。现在这个功能也已经与 Google CloudStack Monitoring Service Stackdriver 集成。用户可以观察 GPU 资源访问的当前频率,GPU 资源的可用性或 GPU 配置。

另外,在 Kubernetes 环境中使用 GPU 服务的公司也可以使用 Google Kubernetes 引擎的一些现有功能。像节点资源池功能一样,现有 Kubernetes 群集上的应用程序可以访问 GPU 资源。当企业应用程序的弹性发生变化时,您可以使用集群扩展功能。系统可以自动扩展内置 GPU 的节点。当基础设施中没有任何 Pod 需要访问 GPU 资源时,系统会自动关闭扩展节点。 GKE 还会确保节点上的 pod 是所有需要访问 GPU 资源的 pod,以避免将不具有 GPU 要求的 pod 部署到这些节点。系统管理员可以使用资源配额功能限制每个用户在多个团队共享大型群集时可以访问的 GPU 资源。

Google 正式整合 Kubernetes 引擎与 GPU 服务

现在这个功能也已经与 Google 的云端监控服务 Stackdriver 集成。 用户可以观察 GPU 资源访问的当前频率,GPU 资源的可用性或 GPU 配置。


【声明】文章转载自:开源中国社区 [http://www.oschina.net]


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

像程序员一样思考

像程序员一样思考

V. Anton Spraul / 徐波 / 人民邮电出版社 / 2013-6 / 49.00元

编程的真正挑战不是学习一种语言的语法,而是学习创造性地解决问题,从而构建美妙的应用。《像程序员一样思考》分析了程序员解决问题的方法,并且教授你其他图书所忽略的一种能力,即如何像程序员一样思考。全书分为8章。第1章通对几个经典的算法问题切入,概括了问题解决的基本技巧和步骤。第2章通过实际编写C++代码来解决几个简单的问题,从而让读者进一步体会到问题解决的思路和应用。第3到7章是书中的主体部分,分别探......一起来看看 《像程序员一样思考》 这本书的介绍吧!

CSS 压缩/解压工具
CSS 压缩/解压工具

在线压缩/解压 CSS 代码

随机密码生成器
随机密码生成器

多种字符组合密码

XML 在线格式化
XML 在线格式化

在线 XML 格式化压缩工具