活动内容
数据科学团队要借助 AI 和深度学习来获取见解、加速创新,这些都有赖于出色的计算性能。之前,AI 超级计算一直囿于数据中心,这对那些需要在大规模训练前开发和测试深度神经网络的实验造成了限制。NVIDIA DGX Station 工作站为您的数据科学团队度身打造,是用于尖端 AI 开发的极速工作站。这一全集成优化系统将助力您的团队更快开展工作,在办公室内轻松体验数据中心的强大威力。
超强计算性能,尽由团队掌控
您只需专注于创新和探索。DGX Station 是一款配备四块 NVIDIA Tesla V100 Tensor 核心 GPU 的工作站,同时集成了四路全连接 NVIDIA NVLink基础架构。凭借500TFLOPS的超级计算性能,您的整个数据科学团队可获得现今极速工作站2倍以上的训练性能。这一突破性解决方案具有如下优势:
>相较基于 CPU 的服务器,深度学习训练性能高达50倍
>相较20节点的 Spark 服务器集群,大型数据集分析提速100倍
>相较采用 PCIe,采用 NVLink 技术带宽增加5倍
>在深度学习训练方面实现超强通用性,每秒可以推理30000多张图像
实验速度更快、迭代频次增加,可轻松提升工作效率。
以更快速度开始数据科学和 AI 研究
节省配置工作所需的时间和资金,将更多时间投入到数据科学研究。DGX Station 可以节省价值数十万美元的设计时间,避免因等待开源代码的稳定版本而导致工作效率降低。依托 NVIDIA DGX 软件栈提供的动力支持,DGX Station 可让您在一小时内启动创新工作。
凭借这一集成式软硬件解决方案,您的数据科学团队将能轻松访问完备的 NVIDIA 优化版 GPU 加速容器目录,在处理 AI 和数据科学工作负载时更大限度挖掘潜在性能。此外,该解决方案还可为您提供 NVIDIA DIGITS 深度学习框架、HPC容器、第三方加速解决方案、 NVIDIA 深度学习SDK(例如cuDNN、cuBLAS、NCCL)、 NVIDIA CUDA 工具包、RAPIDS开源库以及 NVIDIA 驱动。这一集成式深度学习软件栈基于容器技术打造,并由 NVIDIA Docker容器运行时提供动力支持。它能够简化工作流程,在您需要扩展工作及在数据中心或云端部署模型时,为您节省重新编译的时间。DGX Station 上运行的工作负载可以毫不费力地原样迁移至 NVIDIA DGX-1、 NVIDIA DGX-2或云端,无需任何修改。
借助 NVIDIA 的 GPU 感知型 Kubernetes,您的数据科学团队将可受益于业内领先的编配工具,更加合理地调度 AI 资源和工作负载。数据科学家可通过调度和列队作业、同时运行多个作业以及轻松监控 GPU 运行状况等方式来运行计算工作负载。此外还能避免 GPU 的任何闲置,降低每次训练成本,同时大幅提高数据科学团队的工作效率和投资回报率。数据科学家尽可开展生产实验,腾出更多时间获取见解。
没有数据中心?不必担心
需要实现 AI 突破,却没有可用的数据中心?有了DGX Station ,您便无需担心建立企业级基础架构所要面临的诸多挑战和难题,而且还可轻松获取出色的计算能力。
DGX Station 将多机架服务器的计算能力融入适于办公环境的尺寸和包装内,能够为您的数据科学和 AI 研究团队提供超快速的深度学习系统。它具有专为办公环境而设计的静音水冷系统,超级计算性能触手可及。它还包含经 NVIDIA 优化的 AI 和HPC软件,可助您立即提升工作效率。
您可以根据自身情况进行创意开发,而不必等待数据中心内的计算周期。
获取 AI 专业知识和资源
DGX Station 可为您提供 NVIDIA 的 AI 专业知识和资源、企业级支持、大量培训,以及经现场验证的各种功能,从而协助您快速启动工作,以更快速度获取见解。我们的专业团队时刻待命,能够随时为您提供规范性指导和设计素材,以及经过全面优化的DGX软件栈,助您顺利开展工作。您将获得经IT专家认证的解决方案和企业级支持,此外,我们的专家团队还可确保您的任务关键型 AI 应用时刻保持正常运行。