英特尔开源分布式深度学习平台 Nauta,使用 Kubernetes 和 Docker 平台运行

栏目: 编程工具 · 发布时间: 5年前

内容简介:1 月 24 日,英特尔发表博文宣布开源其分布式深度学习平台 Nauta。Nauta 使用业界领先的 Kubernetes 和 Docker 平台运行,以实现可扩展性和易管理性。GitHub 开源地址:随着越来越多的企业探索在业务中使用 AI 来改善商业模式,AI 继续不断发展。根据 Gartner 最近一份报告显示,AI 部署已经产生巨大实际价值,2022 年价值有望达到 4 万亿美元。AI 中的深度学习也获得快速发展,据德勤一份 2018 年地调查显示,有将近 50% 的受访者表示已经采用了深度学习。虽

1 月 24 日,英特尔发表博文宣布开源其分布式深度学习平台 Nauta。Nauta 使用业界领先的 Kubernetes 和 Docker 平台运行,以实现可扩展性和易管理性。

GitHub 开源地址: https://github.com/intelAI/Nauta

随着越来越多的企业探索在业务中使用 AI 来改善商业模式,AI 继续不断发展。根据 Gartner 最近一份报告显示,AI 部署已经产生巨大实际价值,2022 年价值有望达到 4 万亿美元。AI 中的深度学习也获得快速发展,据德勤一份 2018 年地调查显示,有将近 50% 的受访者表示已经采用了深度学习。虽然业务价值持续增长,并且企业对深度学习的兴趣显而易见,但集成、验证和优化深度学习解决方案仍然是一项复杂,有风险且耗时的工作。这就是英特尔使用 Kubernetes 为分布式深度学习引入 Nauta 开源平台的原因。

Nauta 是什么?

Nauta 提供了一个多用户的分布式计算环境,用于运行深度学习模型训练实验。它可以使用命令行界面、Web UI 和 / 或 TensorBoard 查看和监控实验结果。你可以使用现有数据集,自己的数据或在线下载的数据创建公共或私人文件夹,更轻松地在团队之间进行协作。

Nauta 使用业界领先的 Kubernetes 和 Docker 平台运行,以实现可扩展性和易管理性。为了让创建和运行单节点和多节点深度学习训练实验更简单,该平台兼容各种深度学习框架和 工具 的模板包(并可自定义),而无需标准容器环境所需的所有系统开销和脚本。

在模型测试中,Nauta 还支持批量和流式推理,所有工作在一个平台上完成。

英特尔开源分布式深度学习平台 Nauta,使用 Kubernetes 和 Docker 平台运行

(图 1:使用 Nauta 训练并部署深度学习网络)

面向开发人员,支持 Kubernetes 和容器化

英特尔在创建 Nauta 工作流程中考虑到了开发人员和数据科学家。Nauta 是一个企业级堆栈,适用于需要进行深度学习模型训练并在生产中部署团队。使用 Nauta,用户可以在单个或多个工作节点上使用 Kubernetes 定义并进行容器化的深度学习实验,并检查这些实验的状态和结果,以进一步调整和运行其他实验,或准备训练模型进行部署。

Nauta 特性

  • Nauta 使用户能够利用来自经验丰富的机器学习开发人员和运营商的共享最佳实践,而不会牺牲灵活性。
  • 在每个抽象级别,开发人员仍然有机会回退到 Kubernetes 并直接使用原语。
  • Nauta 让新手在有保障的情况下进行实验。精心挑选的组件和直观的用户体验减少了对开源 DL 服务的生产准备,配置和互操作性的担忧。
  • 支持多团队成员协作,作业输入和输出可以在团队成员之间共享,并通过启动 TensorBoard 来查看其他人的工作检查点,帮助调试问题。

英特尔开源分布式深度学习平台 Nauta,使用 Kubernetes 和 Docker 平台运行

(图 2:使用 TensorBoard 和 Nauta WebUI 监控作业)

创建指南

2019 年,Nauta 将在 Q1 及更高版本中进行更新,并通过 landing page 维护开发者社区,鼓励开发人员和数据科学家在他们自己的堆栈上尝试 Nauta。

有关最新的技术信息,包括安装指南,用户文档以及如何参与项目,参见 Github: https://github.com/intelAI/Nauta

构建 Nauta 安装包并在 Google Cloud Platform 上顺利运行,请关注 Google 云平台上的 Nauta 入门

有关构建 Nauta 包的详细信息,参见 如何构建指南

快速启动并运行,请查看 入门指南

更多信息,请参阅以下文档:

Nauta、Kubeflow Pipeline、Azure Kubernetes、Acumos AI 对比

Nauta 是可以使用 Kubernetes 或 Docker 容器的最新发布工具,这种方法让从业者在通过内部部署服务器还是云端部署 AI 之间进行选择。

11 月,谷歌推出了一个 Kubernetes 工作流程 Kubeflow Pipeline ,而微软上个月在公开预览中推出了 Azure Kubernetes 服务。

Kubeflow Pipeline GitHub: https://github.com/kubeflow/pipelines

Kubeflow 是一个使用 Kubeflow Pipelines SDK 构建的可重复使用的端到端 ML 工作流程,致力于使 Kubernetes 上机器学习工作流的部署简单,可移植和可扩展。

Azure Kubernetes: https://azure.microsoft.com/en-us/services/kubernetes-service/

Azure Kubernetes 简化 Kubernetes 管理、部署和运营,使用完全托管的 Kubernetes 容器编排服务。

另外,Linux 基金会的 LF 深度学习基金也于去年秋季推出了用于深度学习的 Acumos AI 平台和开源框架,可以轻松构建、共享和部署 AI 应用程序,标准化了运行开箱即用的通用 AI 环境所需的基础架构堆栈和组件。


以上所述就是小编给大家介绍的《英特尔开源分布式深度学习平台 Nauta,使用 Kubernetes 和 Docker 平台运行》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

小米生态链战地笔记

小米生态链战地笔记

小米生态链谷仓学院 / 中信出版集团 / 2017-5 / 56.00

2013年下半年,小米开始做一件事,就是打造一个生态链布局IoT(物联网);2016年年底,小米生态链上已经拥有了77家企业,生态链企业整体销售额突破100亿元。这3年,是小米生态链快速奔跑的3年,也是小米在商场中不断厮杀着成长的3年。 3年,77家生态链企业,16家年销售额破亿,4家独角兽公司,边实战,边积累经验。 小米生态链是一个基于企业生态的智能硬件孵化器。过去的3年中,在毫无先......一起来看看 《小米生态链战地笔记》 这本书的介绍吧!

HTML 压缩/解压工具
HTML 压缩/解压工具

在线压缩/解压 HTML 代码

HTML 编码/解码
HTML 编码/解码

HTML 编码/解码

XML 在线格式化
XML 在线格式化

在线 XML 格式化压缩工具