HyperAI
HyperAI
主区域
首页
GPU
控制台
文档
价格
Pulse
报道
资源
论文
教程
数据集
百科
基准测试
SOTA
大语言模型(LLM)
GPU 排行榜
社区
活动
开源
实用工具
搜索
关于
服务条款
隐私政策
中文
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
登录
HyperAI
GPU 排行榜
GPU 排行榜
比较用于机器学习和AI工作负载的GPU性能基准测试
GPU 数据库
(29 GPU)
比较
AMD Instinct™ MI355X
发布于 Jun 2025
CDNA4
288 GB HBM3E
1,024
1400W
8.19 TB/s
FP16
157.3
FP32
157.3
FP64
78.6
比较
NVIDIA RTX PRO 6000 Blackwell Server
发布于 Mar 2025
NVIDIA Blackwell 2.0
96 GB GDDR7
24,064
600W
1597 GB/s
FP16
126
FP32
126
FP64
1.968
比较
NVIDIA GeForce RTX 5090
发布于 Jan 2025
NVIDIA Blackwell
32 GB GDDR7
21,760
575W
1.79 TB/s
FP16
104.8
FP32
104.8
FP64
1.64
比较
NVIDIA H200 SXM 141 GB
发布于 Nov 2024
NVIDIA Hopper
141 GB HBM3
16,896
700W
4.8 TB/s
FP16
267.6
FP32
67
FP64
34
比较
NVIDIA H200 NVL
发布于 Nov 2024
NVIDIA Hopper
141 GB HBM3
16,896
600W
4.89 TB/s
FP16
241.3
FP32
60
FP64
30
比较
AMD Instinct™ MI325X
发布于 Oct 2024
CDNA™ 3
256 GB HBM3E
1,216
1000W
10.3 TB/s
FP32
653.7
FP64
163.4
比较
NVIDIA B200
发布于 Mar 2024
NVIDIA Blackwell
180 GB HBM3E
37,888
1000W
8.20 TB/s
FP16
2,382.4
FP32
74.45
FP64
74.44
比较
AMD Instinct™ MI300X
发布于 Dec 2023
CDNA3
192 GB HBM3
1,216
750W
10.3 TB/s
FP8
2.61
FP16
1.3
FP32
163.4
FP64
163.4
比较
Cloud AI 100 Ultra
发布于 Nov 2023
150W
548 GB/s
FP16
288
比较
NVIDIA L40s
发布于 Aug 2023
NVIDIA Ada Lovelace
48 GB GDDR6
14,080
350W
864 GB/s
FP16
733
FP32
91.61
比较
NVIDIA H100 PCIe 80 GB
发布于 Mar 2023
NVIDIA Hopper
80 GB HBM3
16,896
350W
2.04 TB/s
FP8
3,026
FP16
204.9
FP32
51.22
FP64
25.61
比较
NVIDIA H100 PCIe 96 GB
发布于 Mar 2023
NVIDIA Hopper
96 GB HBM3
16,896
350W
3.35 TB/s
FP8
3,026
FP16
248.3
FP32
67
FP64
34
比较
NVIDIA H100 SXM5 80 GB
发布于 Mar 2023
NVIDIA Hopper
80 GB HBM3
16,896
700W
3.35 TB/s
FP8
3,958
FP16
267.6
FP32
67
FP64
34
比较
NVIDIA H100 SXM5 96 GB
发布于 Mar 2023
NVIDIA Hopper
96 GB HBM3
16,896
700W
3.36 TB/s
FP8
3,026
FP16
248.3
FP32
66.91
FP64
31.04
比较
NVIDIA GeForce RTX 4090
发布于 Oct 2022
NVIDIA Ada Lovelace
24 GB GDDR6X
16,384
450W
1.01 TB/s
FP16
82.58
FP32
82.58
FP64
1.29
比较
NVIDIA L40
发布于 Oct 2022
NVIDIA Ada Lovelace
48 GB GDDR6
14,080
300W
864 GB/s
FP16
90.52
FP32
90.52
FP64
1.41
比较
Intel Gaudi 2
发布于 May 2022
Gaudi 2
96 GB HBM2e
6,144
600W
2451.5 GB/s
FP16
11
FP32
5.5
比较
AMD Instinct™ MI250
发布于 Nov 2021
CNDA2
128 GB HBM2E
880
500W
3.28 TB/s
FP16
362.1
FP32
45.3
FP64
45.3
比较
NVIDIA A100 PCIe 80 GB
发布于 Jun 2021
NVIDIA Ampere
80 GB HBM2E
6,912
300W
1.94 TB/s
FP16
77.97
FP32
19.49
FP64
9.75
比较
NVIDIA RTX A6000
发布于 Mar 2021
NVIDIA Ampere
48 GB GDDR6
10,752
300W
768.0 GB/s
FP16
38
FP32
38.71
FP64
0.6
比较
NVIDIA A100 SXM4 80 GB
发布于 Nov 2020
NVIDIA Ampere
80 GB HBM2E
6,912
400W
2.04 TB/s
FP16
77.97
FP32
19.49
FP64
9.75
比较
NVIDIA A40 PCIe
发布于 Oct 2020
NVIDIA Ampere
48 GB GDDR6
10,752
300W
695.8 GB/s
FP16
37.42
FP32
37.42
FP64
0.58
比较
NVIDIA GeForce RTX 3090
发布于 Sep 2020
NVIDIA Ampere
24 GB GDDR6X
10,496
350W
936.2 GB/s
FP16
35.58
FP32
35.58
FP64
0.56
比较
NVIDIA A100 PCIe 40 GB
发布于 Jun 2020
NVIDIA Ampere
40 GB HBM2E
6,912
250W
1.56 TB/s
FP16
77.97
FP32
19.49
FP64
9.75
1
2
比较
HyperAI
HyperAI
主区域
首页
GPU
控制台
文档
价格
Pulse
报道
资源
论文
教程
数据集
百科
基准测试
SOTA
大语言模型(LLM)
GPU 排行榜
社区
活动
开源
实用工具
搜索
关于
服务条款
隐私政策
中文
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
登录
HyperAI
GPU 排行榜
GPU 排行榜
比较用于机器学习和AI工作负载的GPU性能基准测试
GPU 数据库
(29 GPU)
比较
AMD Instinct™ MI355X
发布于 Jun 2025
CDNA4
288 GB HBM3E
1,024
1400W
8.19 TB/s
FP16
157.3
FP32
157.3
FP64
78.6
比较
NVIDIA RTX PRO 6000 Blackwell Server
发布于 Mar 2025
NVIDIA Blackwell 2.0
96 GB GDDR7
24,064
600W
1597 GB/s
FP16
126
FP32
126
FP64
1.968
比较
NVIDIA GeForce RTX 5090
发布于 Jan 2025
NVIDIA Blackwell
32 GB GDDR7
21,760
575W
1.79 TB/s
FP16
104.8
FP32
104.8
FP64
1.64
比较
NVIDIA H200 SXM 141 GB
发布于 Nov 2024
NVIDIA Hopper
141 GB HBM3
16,896
700W
4.8 TB/s
FP16
267.6
FP32
67
FP64
34
比较
NVIDIA H200 NVL
发布于 Nov 2024
NVIDIA Hopper
141 GB HBM3
16,896
600W
4.89 TB/s
FP16
241.3
FP32
60
FP64
30
比较
AMD Instinct™ MI325X
发布于 Oct 2024
CDNA™ 3
256 GB HBM3E
1,216
1000W
10.3 TB/s
FP32
653.7
FP64
163.4
比较
NVIDIA B200
发布于 Mar 2024
NVIDIA Blackwell
180 GB HBM3E
37,888
1000W
8.20 TB/s
FP16
2,382.4
FP32
74.45
FP64
74.44
比较
AMD Instinct™ MI300X
发布于 Dec 2023
CDNA3
192 GB HBM3
1,216
750W
10.3 TB/s
FP8
2.61
FP16
1.3
FP32
163.4
FP64
163.4
比较
Cloud AI 100 Ultra
发布于 Nov 2023
150W
548 GB/s
FP16
288
比较
NVIDIA L40s
发布于 Aug 2023
NVIDIA Ada Lovelace
48 GB GDDR6
14,080
350W
864 GB/s
FP16
733
FP32
91.61
比较
NVIDIA H100 PCIe 80 GB
发布于 Mar 2023
NVIDIA Hopper
80 GB HBM3
16,896
350W
2.04 TB/s
FP8
3,026
FP16
204.9
FP32
51.22
FP64
25.61
比较
NVIDIA H100 PCIe 96 GB
发布于 Mar 2023
NVIDIA Hopper
96 GB HBM3
16,896
350W
3.35 TB/s
FP8
3,026
FP16
248.3
FP32
67
FP64
34
比较
NVIDIA H100 SXM5 80 GB
发布于 Mar 2023
NVIDIA Hopper
80 GB HBM3
16,896
700W
3.35 TB/s
FP8
3,958
FP16
267.6
FP32
67
FP64
34
比较
NVIDIA H100 SXM5 96 GB
发布于 Mar 2023
NVIDIA Hopper
96 GB HBM3
16,896
700W
3.36 TB/s
FP8
3,026
FP16
248.3
FP32
66.91
FP64
31.04
比较
NVIDIA GeForce RTX 4090
发布于 Oct 2022
NVIDIA Ada Lovelace
24 GB GDDR6X
16,384
450W
1.01 TB/s
FP16
82.58
FP32
82.58
FP64
1.29
比较
NVIDIA L40
发布于 Oct 2022
NVIDIA Ada Lovelace
48 GB GDDR6
14,080
300W
864 GB/s
FP16
90.52
FP32
90.52
FP64
1.41
比较
Intel Gaudi 2
发布于 May 2022
Gaudi 2
96 GB HBM2e
6,144
600W
2451.5 GB/s
FP16
11
FP32
5.5
比较
AMD Instinct™ MI250
发布于 Nov 2021
CNDA2
128 GB HBM2E
880
500W
3.28 TB/s
FP16
362.1
FP32
45.3
FP64
45.3
比较
NVIDIA A100 PCIe 80 GB
发布于 Jun 2021
NVIDIA Ampere
80 GB HBM2E
6,912
300W
1.94 TB/s
FP16
77.97
FP32
19.49
FP64
9.75
比较
NVIDIA RTX A6000
发布于 Mar 2021
NVIDIA Ampere
48 GB GDDR6
10,752
300W
768.0 GB/s
FP16
38
FP32
38.71
FP64
0.6
比较
NVIDIA A100 SXM4 80 GB
发布于 Nov 2020
NVIDIA Ampere
80 GB HBM2E
6,912
400W
2.04 TB/s
FP16
77.97
FP32
19.49
FP64
9.75
比较
NVIDIA A40 PCIe
发布于 Oct 2020
NVIDIA Ampere
48 GB GDDR6
10,752
300W
695.8 GB/s
FP16
37.42
FP32
37.42
FP64
0.58
比较
NVIDIA GeForce RTX 3090
发布于 Sep 2020
NVIDIA Ampere
24 GB GDDR6X
10,496
350W
936.2 GB/s
FP16
35.58
FP32
35.58
FP64
0.56
比较
NVIDIA A100 PCIe 40 GB
发布于 Jun 2020
NVIDIA Ampere
40 GB HBM2E
6,912
250W
1.56 TB/s
FP16
77.97
FP32
19.49
FP64
9.75
1
2
比较