GPUインスタンスはインスタンスにGPU(Graphics Processing Unit)が追加構成された仮想サーバーです。 科学的な発見からディープラーニングに至るまで、多様な分野で使用します。
GPU数1個または2個を選択してGPUを使用できます。
NVIDIA V100 for NVLink | |
---|---|
GPU Architecture | NVIDIA Volta |
NVIDIA Tensor Cores | 640 |
NVIDIA CUDA Cores | 5120 |
DOUBLE-PRECISION Performance | 7.8 teraFLOPS |
SINGLE-PRECISION Performance | 15.7 teraFLOPS |
DEEP LEARNING Performance | 125 teraFLOPS |
GPU Memory | 32GB HBM2 |
Memory Bandwidth | 900GB/sec |
Interconnect Bandwidth | 300GB/sec |
System Interface | NVIDIA NVLink |
Max Power Comsumption | 300 W |
Compute APIs | CUDA, DirectCompute, OpenCL, OpenACC |
NVIDIA T4 | |
---|---|
GPU Architecture | NVIDIA Turing |
NVIDIA Tensor Cores | 320 |
NVIDIA CUDA Cores | 2560 |
SINGLE-PRECISION Performance | 8.1 teraFLOPS |
Mixed-Precision (FP16/FP32) Performance | 65 teraFLOPS |
INT8 | 130 teraFLOPS |
INT8 | 260 teraFLOPS |
GPU Memory | 16GB GDDR6 |
Memory Bandwidth | 300GB/sec |
Interconnect Bandwidth | 32GB/sec |
System Interface | x16 PCIe Gen3 |
Max Power Comsumption | 70 W |
Compute APIs | CUDA, NVIDIA TensorRT, ONNX |