网站首页 > 百姓心声> 文章内容

免费测试|滴滴云开放基于NVIDIA A100的GPU裸金属服务器测试

※发布时间:2021-3-5 0:12:42   ※发布作者:平民百姓   ※出自何处: 


NVIDIA A100 GPU介绍

NVIDIA  A100融合了超540亿个晶体管,是目前全世界最大尺寸的7nm制程处理器,内有6912个CUDA核心、40GB运行内存,以及内存网络带宽达1.6TB/s,张量计算核心内容性能大幅度提高,TF32性能达156万亿次/秒,如果利用稀疏性,其计算能力可翻倍达到312万亿次/秒。

NVIDIA A100 Tensor Core GPU 基于最新的 Ampere 架构,相比上一代 NVIDIA  V100 GPU 增加了许多新特性,在 HPC、AI 和数据分析领域都有更好的表现。A100 为 GPU 计算和深度学习应用提供了超强扩展性,可以运行在单卡或多卡 GPU 工作站、服务器、集群、云数据中心、 边缘计算系统以及超算中心。A100 GPU 可以构建灵活,弹性且高性能的数据中心。

 

A100 搭载了革命性的多实例 GPU(Multi-instance GPU 或 MIG)虚拟化与 GPU 切割能力,对云服务供应商(CSPs)更加友好。当配置为 MIG 运行状态时,A100 可以通过分出最多 7 个核心来帮助供应商提高 GPU 服务器的利用率,无需额外投入。A100 稳定的故障分离也能够让供应商安全的分割GPU。

 

A100 带有性能强劲的第三代 Tensor Core,支持更为丰富的 DL 和 HPC 数据类型,同时具有比 V100 更高的计算吞吐。A100 新的稀疏(Sparsity)特性能够进一步让计算吞吐翻倍。

 

新的TensorFloat-32 (TF32) 核心运算单元让 A100 在 DL 框架和 HPC 中轻松加速以 FP32 作为输入/输出数据的运算,比 V100 FP32 FMA 操作快10倍,稀疏优化(sparse)下可以达到20倍。在 FP16/FP32 的混合精度下也能达到V100 的 2.5 倍,稀疏优化后达 5 倍。

新的 Bfloat16(BF16)/FP32 混合精度 Tensor Core 运算单元和 FP16/FP32 混合精度以相同的频率运行。Tensor Core 对 INT8、INT4 和 INT1 的加速为 DL 推理提供了全面支持,A100 sparse INT8 比 V100 INT8 快 20 倍。在 HPC 中,A100 Tensor 核心的 IEEE 兼容 FP64 处理让它的表现是 V100的 2.5 倍。

A100 GPU 的设计具有广泛的性能扩展性。客户可以使用 MIG GPU 分区技术共享一个 A100 ,或者在强大的全新 NVIDIA DGX™ 、NVIDIA HGX™ 和 NVIDIA EGX™ 系统中使用多个 A100 GPU,并通过全新的第三代NVLink® 高速互连进行连接。基于 A100 的系统由全新的 NVIDIA NVSwitch™ 和 Mellanox® 最先进的infiniBand™ 和以太网解决方案连接,可以在计算集群、云计算实例或大型超级计算机中扩展到数十台、数百台或数千台 A100,以加速多种类型的应用和工作负载。此外,A100 GPU革命性的新硬件能力通过新的CUDA 11功能得到增强,提高了可编程性,降低了AI和HPC软件的复杂度。

 

NVIDIA A100 GPU 是首款弹性 GPU 架,能够利用 NVLink、NVSwitch 和 InfiniBand 扩展到巨型 GPU,或利用 MIG 扩展到支持多个独立用户,滴滴云GPU/vGPU云服务器具有优异性价比,价格优势明显。

 

NVDIA A100 Tensor Core GPU在 NVIDIA GPU 加速计算领域实现了有史以来最大的代际飞跃。

滴滴云GPU和机器学习产品全面拥抱A100

作为英伟达的长期合作伙伴,滴滴云即将推出基于NVIDIA  A100 GPU的云服务器产品系列,包括GPU云服务器产品和裸金属服务器产品,当前裸金属服务器产品已经向邀测用户开放测试。该产品系列将为深度学习训练/推理、数据分析、科学计算、基因工程、云游戏等场景提供云端加速服务。为了更好发挥 A100 混合精度训练和推理性能,滴滴云为客户提供了 NGC 镜像加速功能,支持快速部署 TensorFlow 1.x/2.x、PyTorch、MXNet 等性能优化版 AI 训练框架和 TensorRT推理框架,节省初次安装环境时间。

 

滴滴云机器学习工作室(DAI)Notebook服务也将增加对A100 GPU的支持。Notebook基于Jupyter笔记本,通过A100 GPU的算力支持可帮助机器学习开发者构建、训练对算力要求更高的复杂机器学习模型。

滴滴云及GPU产品、机器学习产品介绍

滴滴云成立于2017年,基于滴滴出行的业务技术和经验积累,采用领先的云计算架构、高规格服务器集群搭建、高性能资源配置机制、精细化运营模式,致力于为开发者提供简单快捷、高效稳定、高性价比、安全可靠的IT基础设施云服务。

滴滴云GPU云服务器是滴滴云的优势产品,当前提供了基于NVIDIA Tesla P4、P40、P100、T4、A100的5种GPU云服务器产品,以及基于P4、P40、T4的vGPU云服务器产品,在深度学习推理/预测、深度学习训练、图像渲染、浮点高性能计算、视频编解码等应用场景得到了广泛的应用。滴滴云GPU/vGPU云服务器具有优异性价比,价格优势明显。

滴滴云 AIBench 将为客户提供可触达的性能体验,针对纷繁复杂的多种型号和不同规格 GPU 云服务器,一键跑分功能可以让客户关心的 AI 性能指标(训练速度/推理延迟)一目了然,方便进行产品和规格选型。

滴滴云机器学习工作室(DAI)提供托管机器学习环境,帮助企业和AI开发者快速构建、训练和部署机器学习模型。DAI提供了丰富的机器学习开发环境,使得开发者专注于机器学习任务本身,产出高质量AI模型。

申请测试

当前开放A100 GPU裸金属服务器测试,扫码咨询可申请试用,输入AI大师码【1122】,滴滴云GPU全线产品享9折优惠。

相关阅读
  • 没有资料