>集成电路>特殊集成电路>NVIDIA英伟达A100人工智能服务器 免费发布特殊集成电路信息
广告
热门浏览

NVIDIA英伟达A100人工智能服务器

更新时间:2024-03-13 09:17:57 信息编号:253166428
NVIDIA英伟达A100人工智能服务器
  • 面议

  • 新品

  • 模拟信号

  • 英伟达,NVIDIA,显卡,H100

分享

详情介绍

产品别名
英伟达,NVIDIA,显卡,A100
面向地区
全国
产品性质
新品
处理信号
模拟信号
封装
BGA
型号
74HC164
营销方式
库存

NVIDIA英伟达A100人工智能服务器

NVIDIA A100 TENSOR CORE GPU 在各种规模上实现的加速
适用于各种工作负载的强大计算平台
NVIDIA A100 Tensor Core GPU 可在各个规模下为 AI、数据分析和计算( HPC) 应用提供的加速性能,为的 弹性数据中心提供强劲助力。作为 NVIDIA 数据中心平台的引擎,与代 NVIDIA Volta™ 相比,A100 可使性能提升高达 20 倍。A100 可扩展,也可借助多实例 GPU( MIG) 技术划分 为 7 个立的 GPU 实例,从而提供统一的平台,助力弹性数据中心根据不断变化的工作负载需求动态进行调整。
NVIDIA A100 Tensor Core 技术支持广泛的数学精度,可针对每个工作负载提供单个加速器。新一代 A100 80GB 将 GPU 显存 加倍,提供 2TB/s 的超快显存带宽,可加速处理超大型模型和海量数据集。
A100 是完整 NVIDIA 数据中心解决方案的一部分,该解决方案由硬件、网络、软件、库以及 NGC™ 目录中经优化的 AI 模型和 应用等叠加而成。作为适用于数据中心且功能强大的端到端 AI 和 HPC 平台,A100 可助力研究人员获得真实的结果,并能将解决方案大规模部署到生产环境中。

NVIDIA英伟达A100人工智能服务器产品规格
项目 标准配置 扩展配置
1 准系统 双路4U机架式
2 处理器 英特尔 Xeon ® Gold 6330 处理器
28核/基频2GHz/高3.1GHz/42MB缓存 英特尔 Xeon® Platinum 8380 处理器
40核/基频2.3GHz/高3.4GHz/60MB缓存
3 内存 DDR4/RDIMM/3200MHz/64GB,总容量256GB 大内存容量4TB
4 芯片组 Intel® C621A
5 GPU 8张A100 80GB PCIe显卡 8张双宽或16张单宽PCIe NVIDIA GPU卡
6 网络通信 以太网卡,2路10G电口
7 InfiniBand(IB)网卡,2路200G QSFP56口
8 硬盘 系统盘,M.2 SATA SSD,容量1TB 前面板支持24块2.5或12块3.5寸 SAS/SATA硬盘
主板支持2块M.2 SATA SSD
9 数据盘,4TB*4/SATA,总容量16TB
10 电源 单模组2000W,2+2冗余配置 单模组3KW,总计12KW
9 外形尺寸 宽度480mm,高度180mm,深度830mm
10 工作温度 5~35℃
11 重量 80kg


NVIDIA A100 TENSOR CORE GPU 规格 (SXM4 和 PCIE 外形规格)

A100 80GB PCIe A100 80GB SXM
FP64 9.7 TFLOPS
FP64 Tensor Core 19.5 TFLOPS
FP32 19.5 TFLOPS
Tensor Float 32 (TF32) 156 TFLOPS | 312 TFLOPS*
BFLOAT16 Tensor Core 312 TFLOPS | 624 TFLOPS*
FP16 Tensor Core 312 TFLOPS | 624 TFLOPS*
INT8 Tensor Core 624 TOPS| 1248 TOPS*
GPU 显存 80GB HBM2e 80GB HBM2e
GPU 显存带宽 1935GB/s 2039GB/s
大热设计功耗 (TDP) 300 瓦 400 瓦***
多实例 GPU 多 7 个 MIG 每个 10GB 多 7 个 MIG 每个 10GB
外形规格 PCIe 双插槽风冷式或单插槽液冷式 SXM
互连技术 搭载 2 个 GPU 的 NVIDIA® NVLink® 桥接器:600GB/s**
PCIe 4.0 :64GB/s NVLink :600GB/s
PCIe 4.0 :64GB/s
服务器选项 搭载 1 至 8 个 GPU 的合作伙伴认证系统和 NVIDIA 认证系统( NVIDIA-Certified Systems™) 搭载 4 个、8 个或 16 个 GPU 的 NVIDIA HGX™ A100 合作伙伴认证系统和 NVIDIA 认证系统
搭载 8 个 GPU 的 NVIDIA DGX™ A100
* 采用稀疏技术
** SXM4 GPU 通过 HGX A100 服务器主板连接;PCIe GPU 通过 NVLink 桥接器可桥接多达两个 GPU
*** 400 瓦 TDP(适用于标准配置)。HGX A100-80 GB 自定义散热解决方案( CTS) SKU 可 支持高达 500 瓦的 TDP

跨工作负载的性能
针对大型模型提供高达 3 倍的 AI 训练速度;
相较于 CPU 提供高达 249 倍的 AI 推理性能;
相较于 A100 40GB 提供高达 1.25 倍的 AI 推理性能;
为 HPC 应用提供高达 1.8 倍的性能;
四年来 HPC 性能提升 11 倍;
相较于 A100 40GB,在大数据分析基准测试中速度提升 2 倍;

突破性的创新
NVIDIA AMPERE 架构:无论是使用 MIG 将 A100 GPU 分割为较小的实例,还是使用 NVLink 连接多个 GPU 来加速 大规模工作负载,A100 均可轻松满足不同规模的加速需求,从小型作业到大型多节点工作负载无一例外。A100 功能全面,这意味着 IT 经理可以全天候地充分利用数据中心内的每个 GPU。
三代 TENSOR CORE 技术:NVIDIA A100 的深度学习 运算性能可达 312 teraFLOPS (TFLOPS)。其深度学习训练的 Tensor 每秒浮点运算次数( FLOPS) 和推理 的 Tensor 每秒万亿次运算次数( TOPS) 皆为 NVIDIA Volta™ GPU 的 20 倍。
新一代 NVLINK:A100 中采用的 NVIDIA NVLink 可提供两倍于上一代的吞吐量。与 NVIDIA NVSwitch™ 结合使用时,此技术可将多达 16 个 A100 GPU 互连,并将速度提升至 600GB/s,从而在单个服务器上实现的应用性能。NVLink 技术可应用在 A100 中:SXM GPU 通过 HGX A100 服务器主板连接,PCIe GPU 通过 NVLink 桥接器可桥接多达两块 GPU。
多实例 GPU( MIG) 技术:一个 A100 GPU 多可划分为 7 个 GPU 实例,这些实例在硬件级别完全立,并自拥有高 带宽显存、缓存和计算核心。借助 MIG, 可为其所有应用实现惊人加速,IT 管理员也可为每个作业提供符合其规模的 GPU 加速,进而优化 GPU 利用率,并让每个用户和 应用都能使用 GPU 实例。
高带宽显存( HBM2E):凭借 80GB 的高带宽显存(HBM2e),A100 提供超过 2TB/s 的超快 GPU 显存带宽, 并将动态随机存取存储器( DRAM) 的利用效率 提高至 95%。A100 提供的显存带宽是上一代 产品的 1.7 倍。
结构化稀疏:AI 网络拥有数百万至数十亿个 参数。实现准确预测并非要使用所有参数,而且我们还可将某些参数转换为零,以在无损准确性的前提下使 模型变得“稀疏”。A100 中的 Tensor Core 可为稀疏模型提供高达 2 倍的性能提升。稀疏功能不仅更容易使 AI 推理受益,同时还能提升 模型的训练性能。

NVIDIA A100 Tensor Core GPU 是 NVIDIA 数据中心平台的旗舰产品,可用于深度学习、计算 (HPC) 和数据分析。该平台可为 2000 余款应用和各大深度学习框架提供加速。A100 适用于桌面、服务器以及云服务,不仅能显著提升性能,更可以节约成本。

深圳市创宏佳科技有限公司 6年

  • 自动驾驶教学平台,毫米波雷达,adas相机,英伟达NVIDIA显卡
  • 深圳市龙岗区坂田街道金洲嘉丽园2#楼二单元0504

———— 认证资质 ————

个人认证已通过
企业认证已通过
天眼查已核实
手机认证已通过
微信认证已通过

最近来访记录

  • 天津东丽网友一个月前在360搜索访问了本页
  • 重庆网友一个月前在360搜索访问了本页
  • 湖北武汉网友一个月前在360搜索访问了本页
  • 四川成都网友一个月前在360搜索访问了本页
  • 山东济南网友一个月前在360搜索访问了本页

相关推荐产品

留言板

  • 英伟达NVIDIA显卡A100H100
  • 价格商品详情商品参数其它
  • 提交留言即代表同意更多商家联系我
深圳市创宏佳科技有限公司为你提供的“NVIDIA英伟达A100人工智能服务器”详细介绍,包括英伟达价格、型号、图片、厂家等信息。如有需要,请拨打电话:16601807362。不是你想要的产品?点击发布采购需求,让供应商主动联系你。
“NVIDIA英伟达A100人工智能服务器”信息由发布人自行提供,其真实性、合法性由发布人负责。交易汇款需谨慎,请注意调查核实。