Gcore 高端GPU Cloud服务器配置与价格详解,按需计费+灵活预留
Gcore GPU Cloud 主打高端GPU算力服务,覆盖H100、A100、L40S等主流型号,支持按需计费和12/36个月预留,配置从单GPU推理到多GPU专用集群,适配AI训练、深度学习、大规模计算等场景,硬件参数强悍且计费精准到分钟。
一、AI-1 专用服务器配置(卢森堡2地区,高性能集群)
专用服务器搭载多颗高端GPU,搭配大容量内存、高速NVMe存储和高带宽网络,适合大规模分布式计算或重度AI训练,具体配置如下:
AI-1 专用服务器配置表
| 配置规格 | CPU | 内存 | 存储 | GPU配置 | 网络规格 |
|---|---|---|---|---|---|
| 专用服务器(带IB) | 2×Intel Xeon 8480+ | 2TB RAM | 8×3.84 TB NVMe | 8×Nvidia H100 | IB 3.2 Tbit/s + 2×100Gbit/s 以太网 |
| 专用服务器(无IB) | 2×Intel Xeon 8480+ | 2TB RAM | 8×3.84 TB NVMe | 8×Nvidia H100 | 2×100Gbit/s 以太网 |
| 专用服务器(带Infiniband) | 2×Intel Xeon 8468 | 2TB RAM | 8×3.84 TB NVMe | 8×Nvidia A100 80GB | 800Gbit/s Infiniband + 以太网 |
| 专用服务器(无Infiniband) | 2×Intel Xeon 8468 | 2TB RAM | 8×3.84 TB NVMe | 8×Nvidia A100 80GB | 以太网(无Infiniband) |
二、GPU Cloud 核心型号价格(按需/预留套餐)
核心GPU型号支持按需按小时计费,及12/36个月长期预留,预留套餐价格更优惠,均不含增值税,具体价格如下:
GPU Cloud 价格表
| GPU型号 | 单服务器GPU数量 | 按需计费(每小时) | 12个月预留(每小时) | 36个月预留(每小时) | 单GPU单价(按需) |
|---|---|---|---|---|---|
| Nvidia H100 | 8×H100 SXM | €22.04 | €17.63 | €15.12 | €2.76 |
| Nvidia A100 | 8×A100 SXM | €13.38 | €10.72 | €9.50 | €1.67 |
| Nvidia L40S | 8×L40S PCIe | €10.72 | €8.59 | €7.52 | €1.34 |
| Nvidia H200 | 8×H200 | 联系销售 | 联系销售 | 联系销售 | - |
| Nvidia GB200 | 4×GB200 NVL72 | 联系销售 | 联系销售 | 联系销售 | - |
三、Everywhere Inference 推理配置(按GPU数量组合)
推理场景支持灵活的GPU数量组合,计费按分钟计算,搭配对应vCPU和内存,适合AI推理、轻量深度学习任务,具体配置如下:
推理场景GPU配置表
| GPU配置 | GPU显存 | CPU/内存 | 每小时成本(不含VAT) |
|---|---|---|---|
| 1×L40S | 48 GB | 16 vCPU / 232 GiB RAM | €1.5 |
| 2×L40S | 96 GB | 32 vCPU / 464 GiB RAM | €3 |
| 4×L40S | 192 GB | 64 vCPU / 928 GiB RAM | €6 |
| 1×A100 | 80 GB | 16 vCPU / 232 GiB RAM | €2 |
| 2×A100 | 160 GB | 32 vCPU / 464 GiB RAM | €4 |
| 4×A100 | 240 GB | 64 vCPU / 928 GiB RAM | €8 |
| 8×A100 | 960 GB | 92 vCPU / 1856 GiB RAM | €16 |
| 1×H100 | 80 GB | 16 vCPU / 232 GiB RAM | €4 |
| 2×H100 | 160 GB | 32 vCPU / 464 GiB RAM | €8 |
| 4×H100 | 240 GB | 64 vCPU / 928 GiB RAM | €16 |
| 8×H100 | 960 GB | 92 vCPU / 1856 GiB RAM | €32 |
四、核心优势总结
高端GPU全覆盖,算力强悍
涵盖H100、A100、L40S、H200、GB200等顶级GPU型号,单服务器最高8颗GPU,显存最高1128GB,满足从推理到大规模AI训练的全场景算力需求。
配置灵活,计费精准
支持按需按小时计费(分钟级统计),及12/36个月长期预留,预留价格最高优惠31%;推理场景可按1/2/4/8颗GPU灵活组合,避免资源浪费。
硬件参数拉满,性能保障
专用服务器配备2TB RAM、多块高速NVMe存储,网络支持3.2 Tbit/s IB、800Gbit/s Infiniband,保障数据传输和并行计算效率。
部署便捷,安全可靠
支持自动扩展、快速冷启动,提供安全部署和受保护端点;支持公共/私有IP选择,适配不同网络环境需求。
多场景适配,支持定制
既适合轻量AI推理,也能支撑重度深度学习、分布式计算;第三方云和本地部署可联系销售定制,灵活性高。
五、不同场景专属推荐
轻量AI推理/小规模测试:推荐1×L40S(€1.5/小时)
48GB显存+16 vCPU/232GB内存,满足单模型推理或小规模测试需求,€1.5/小时成本可控,按需计费无需长期投入。
平衡性能与成本的AI训练:推荐4×A100(€8/小时)或12个月预留8×A100(€10.72/小时)
4×A100适合中等规模训练,240GB显存+64 vCPU/928GB内存;长期使用选择12个月预留,8颗A100每小时仅€10.72,性价比更高。
高端AI训练/大规模计算:推荐8×H100专用服务器(€22.04/小时)或36个月预留
8颗H100 GPU+3.2 Tbit/s IB网络,适配大模型训练、高密度并行计算;36个月预留每小时€15.12,长期使用成本大幅降低。
企业级长期部署:推荐36个月预留套餐(H100/A100/L40S)
预留套餐比按需计费优惠24%-31%,搭配专用服务器的大内存、高速存储,适合企业核心AI业务、长期分布式计算任务。
超高算力需求(大模型训练):推荐H200/GB200型号(联系销售定制)
H200(1128GB显存)、GB200(768GB显存)专为超大模型训练设计,搭配高带宽IB网络,适合对算力和显存要求极高的尖端AI项目。
总的来说,Gcore GPU Cloud 以高端GPU、灵活配置和精准计费为核心优势,覆盖从轻量推理到大规模训练的全场景。选择时可根据算力需求、使用时长和预算,优先考虑按需计费测试效果,长期使用则选择预留套餐,最大化降低成本。



