Llama VRAM & GPU要件カリキュレーター
Llama展開のためのVRAM要件とGPU数を計算。NVIDIA、AMD、Apple、Huaweiをサポート
台
メモリ要件 110.29 GB
2 台のGPUが必要(メモリ容量ベース)
109 GB
すべてのモデル重み
0.15 GB
会話履歴キャッシュ
0.95 GB
エキスパートモデル最適化
0.19 GB
一時計算キャッシュ
シナリオ例 (GPU + モデル + 並行性):
これらの例をクリックして、人気のモデル展開シナリオを素早く設定!