GPU 云服务器
采用直通方式与云服务器对接,省去虚拟化带来的损耗,全面释放物理 GPU 的计算加速能力

免费试用 NVIDIA A100 GPU 云服务器

搭载 Ampere 架构 NVIDIA A100 Tensor Core GPU 显卡,单卡显存 40 GB,单台最多可挂载 8 块 GPU,适用于深度学习、HPC 应用加速。

100 元代金券

免费赠送
每天限量20张,领完为止

个人认证新用户专享
200 元代金券

免费赠送
每天限量20张,领完为止

企业认证新用户专享

限时优惠

自2022年3月15日至2022年12月31日, 青云QingCloud 将面向高校、研究机构的老师/助教/负责人,以及面向深度学习、机器学习、数据科学等 AI 相关技术应用服务的创业企业或将 GPU 作为运算基础的创业公司,提供 NVIDIA A100 GPU 云服务器低至 4 折的专属优惠,注册并完成实名认证即可申请,实例代金券直充到您的账户用以抵扣服务消费,帮您缓解计算压力。

NVIDIA A100 GPU 云服务器

¥7.1/小时

  • 搭载 NVIDIA A100 Tensor Core GPU 显卡
  • 单卡显存 40 GB
  • 最多可挂载 8 块 GPU 卡
  • 适用于 AI、数据分析和 HPC 应用场景
立即申请

产品类型

GPU 云服务器 g3

搭载 NVIDIA A100 显卡,最多可选8颗GPU

科学计算 | 深度学习

可用区

配置

GPU

时长

价格 ¥...
立即购买

GPU 云服务器 g2

搭载 NVIDIA Tesla P100 显卡,最多可选2颗GPU

科学计算 | 深度学习 | 视频编解码 | 图形处理

可用区

配置

GPU

时长

价格 ¥...
立即购买

性能参数

参数 \ 机型 NVIDIA A100 Tensor Core GPU (GPU 云服务器 g3) NVIDIA Tesla P100 (GPU 云服务器 g2)
GPU 架构 Ampere Pascal
CUDA 核心 6912 3584
GPU 显存 40GB HBM2 12GB HBM2
单精度浮点运算性能 19.5 TFLOPS 9.3 TFLOPS
双精度浮点运算性能 9.7 TFLOPS 4.7 TFLOPS
互联接口 PCIe 4.0: 64 GB/s
第三代 NVIDIA® NVLink®: 600 GB/s**
PCle 3:32 GB/s
NVIDIA NVLink 互联带宽:-

应用场景

使用 GPU 硬件加速 FFmpeg 视频转码

视频的生产和消费其实是不对等的,用户在生产视频内容时,通常只会产生一路或几路特定规格的视频。而当视频在消费时,却需要应对复杂的网络环境(有线、WIFI、移动网络等)、解码能力不一的各式终端,以及灵活多变的用户需求(多画面展示、水印、超分、高质低码等)。并且由于视频编码标准的快速演进,H265/VP9/AV1 等编码格式的快速普及,对原始视频进行编码格式、分辨率、带宽、帧率、封装格式以及加水印等,诸如此类的转码处理,是整个音视频行业不可或缺的一环,转码已然成为行业刚需。

  • 针对视频转码领域,GPU 在架构设计时,专门包含了一个或多个基于硬件的解码器和编码器,因此在调用 GPU 进行视频编解码时,完全不用 CPU 参与。即便是专门针对视频编解码领域推出的专用芯片(VPU),在 AI 处理、深度学习相关领域也无法与并行计算能力强大的GPU比拟,比如慢动作补帧、AI 物体擦除、自动美颜等。

强大的 A100 助您全面提升深度学习训练和推理能力

深度学习算法的突破是新一轮 AI 产业腾飞的开端,将计算机视觉(CV)、自然语言处理(NLP)、跨媒体分析与推理、自主无人系统等关键技术推向高潮。但在应用落地过程中,深度学习算法的进展极大依赖算增长,“研究三年算法不如用 10 倍 GPU”——这样的算力焦虑正成为业界的普遍困扰。青云QingCloud 提供极致算力支持实现深度学习算法加速和快速部署,超高的性价比帮您彻底远离算力焦虑。

  • 深度学习训练:A100 的 Tensor Core 借助 Tensor 浮点运算 (TF32) 精度,比上一代 NVIDIA Volta 提升 20 倍之多的性能,并通过自动混合精度和 FP16 额外提供 2 倍的增强。
  • 深度学习推理:引入突破性功能优化推理工作负载,加速从 FP32 到 INT4 的全方位精度,结构稀疏支持提供了高达 2 倍的性能。

客户案例

江苏交通控股有限公司

江苏交通控股有限公司

江苏交通控股有限公司

通过GPU识别高速卡口车辆的车牌号,使车辆高效通过卡口,并进行收费结算。

了解详情 →

使用帮助