VRAM 8GB・12GB・16GB用途別に必要な量を正直に書く
グラボ選びで一番後悔しやすいのが「VRAMが足りなかった」です。 値段や世代より先にVRAMを確認すべきなのに、これを教えてくれる記事がなかなかない。
実際、RTX 4060(8GB)を買ったあとにStable Diffusion XLを使おうとして OOMエラーで詰む、という悲劇は後を絶たない。逆に、古いRTX 3060でも 12GBあるから今でも現役、というケースも珍しくない。 VRAMの量は、買った後から変えられない。
VRAMが重要な理由
VRAMはグラボ専用のメモリです。ゲームのテクスチャ、AIモデルの重み、動画のフレームバッファなど、 GPU処理に必要なデータを一時的に置く場所です。
VRAMが足りなくなるとどうなるか。ゲームなら強制的に低画質テクスチャに切り替わるか、 フレームレートが急落します。 Stable DiffusionならOOMエラー(Out of Memory)で生成が止まります。 ローカルLLMなら、モデルをVRAMに乗せ切れず処理が遅くなります。
用途別ボトムライン早見表
「最低」= それ以下だと用途に使えない。「推奨」= 安心して使えるライン。
| 用途 | 最低 | 推奨 | 備考 |
|---|---|---|---|
| FHDゲーム(2026年主要タイトル) | 8GB | 8〜12GB | 8GBでほぼ問題なし。一部タイトルで制限あり |
| WQHDゲーム | 10GB | 12GB | 8GBでも動くが高設定でVRAMを食いやすい |
| 4Kゲーム | 12GB | 16GB | 4K高設定は12GBでも厳しい場面がある |
| Stable Diffusion SD 1.5 | 4GB | 8GB | 4GBでも動くが遅い。8GBで快適 |
| Stable Diffusion XL(SDXL) | 8GB | 12GB | 8GBはギリギリ。最適化が必要で不安定 |
| Stable Diffusion XL + ControlNet | 12GB | 12GB以上 | 8GBはほぼ無理。12GBがボーダーライン |
| AI動画生成(Wan2.1 480p) | 8GB | 12GB | 8GBで動くが処理が遅い |
| AI動画生成(Wan2.1 720p以上) | 12GB | 16GB | 8GBでは非推奨 |
| ローカルLLM 7Bモデル(完全GPU推論) | 8GB | 8GB | 8GBにちょうど収まる |
| ローカルLLM 13Bモデル(完全GPU推論) | 12GB | 16GB | 12GBで収まるモデルもある。16GBが安心 |
| ローカルLLM 30B以上(完全GPU推論) | 24GB | 24GB以上 | 消費者向けGPUの限界に近い |
| 動画編集(1080p) | 6GB | 8GB | 8GBで十分 |
| 動画編集(4K) | 10GB | 16GB | 12GBでも可。16GBが安心 |
VRAM 8GB — 「ゲームなら十分、AIはギリギリ」
2026年現在のFHDゲームなら8GBで問題ない場面がほとんどです。 RTX 4060はその代表例で、FHD最高設定でも多くのタイトルがVRAM 8GB以内に収まります。
問題はここからで、Stable Diffusion XLを本格的に使いたい場合、8GBは綱渡りです。 生成はできますが、--medvramオプションや解像度制限が必要になり、 ControlNetと組み合わせるとOOMエラーが出やすい。 「試してみたい」程度なら動きますが、日常的に使う環境としては推奨できません。
8GBで向いている用途
✅ FHD〜WQHD(多くのゲーム)
✅ Stable Diffusion SD 1.5(標準ワークフロー)
✅ ローカルLLM 7B(完全GPU推論ちょうど)
✅ 1080p動画編集
⚠️ Stable Diffusion XL(動くが制限あり)
✗ AI動画生成(720p以上)
✗ ローカルLLM 13B以上(完全GPU推論)
VRAM 12GB — 「AI用途のボーダーライン、かつコスパの急所」
12GBはStable Diffusion XLが快適に動く最低ラインであり、 ローカルLLM 7Bを余裕を持って動かせるラインでもあります。 ゲームとAI両方を使う場合、12GBが現実的な選択肢になります。
ここで重要な逆転現象に触れておく。
RTX 3060 12GB という存在
性能は現行RTX 4060より劣りますが、VRAMは12GBあります。 Stable Diffusion XLを動かす目的に限れば、 新品RTX 4060(8GB・¥4万前後)より中古RTX 3060 12GBの方が合理的な選択です。 「性能よりVRAM量が優先される用途」では世代が古くても12GBが勝ちます。 中古市場では3万円を切る価格で出回っています。
12GBで向いている用途
✅ Stable Diffusion XL(快適・ControlNet併用可)
✅ ローカルLLM 7〜13B
✅ FHD〜WQHD高設定ゲーム
✅ AI動画生成 480p〜720p
⚠️ ローカルLLM 30B(完全GPU推論は厳しい)
✗ 4K最高画質ゲームの一部
VRAM 16GB以上 — 「必要な人は迷わず、不要な人には過剰」
AI動画生成(720p以上)、ローカルLLM 13B以上の完全GPU推論、4K高品質ゲームを 本格的にやるなら16GBが現実的なラインです。 ただし、それ以外の用途なら12GBで十分です。
16GBのGPUは価格幅が大きく、選択肢によっては割安な入り口もあります。 RTX 4060 Ti 16GBは16GBとしては最も安価なNVIDIA製品で、 ゲーム性能よりVRAM量を優先する場合の選択肢になります(ただしゲーム性能はRTX 4070に劣ります)。
16GB以上が必要な用途
✅ AI動画生成(720p以上・Wan2.1等)
✅ ローカルLLM 13B以上(完全GPU推論)
✅ Stable Diffusion XL + 複数ControlNet同時使用
✅ 4K高設定ゲーム
✅ 4K動画編集
こういう目的でグラボを選ぶと後悔する
❌ 「Stable Diffusionやりたい」でRTX 4060 8GBを買う
SD 1.5だけなら問題ありません。ただしSDXLを本格的に使いたいなら、 同じ予算帯の中古RTX 3060 12GBの方が快適です。 「安いから」でVRAM 8GBを選ぶと、すぐ12GBが欲しくなります。
❌ 「ゲームしかしない」のに16GBモデルを選ぶ
FHD〜WQHDゲームメインなら8〜12GBで十分です。 RTX 4060 Ti 16GBより同価格帯のRTX 4070 12GBの方がゲーム性能は高い。 VRAMの余剰は、AI用途をやらないならほぼ意味がありません。
❌ 「ローカルLLMをGPUで動かしたい」でVRAMを確認せず買う
Llama 3 8Bを完全GPU推論で動かすには約8GBのVRAMが必要です。 VRAM 6GBのグラボを買うと、結局CPU推論になり意味がありません。 LLMが目的なら必ずモデルのVRAM要件を先に確認してください。
❌ 「将来のために」でVRAMを過剰に積む
GPU市場は2〜3年で大きく変わります。今の最高VRAMを買っても、 数年後には陳腐化します。将来を見据えるより、 今の用途に合ったものを今の価格で買う方が合理的です。
結論:用途から逆算して選ぶ
ゲームのみ(FHD) → 8GB で十分
ゲーム + SD XL 試したい → 12GB を選ぶ(中古 RTX 3060 12GB が狙い目)
SD XL 本格運用 / LLM 7〜13B → 12GB 以上(RTX 4070 12GBか中古 RTX 3060 12GB)
AI動画生成 / LLM 13B完全推論 → 16GB 以上(RX 7800 XT 16GB が現時点のコスパ候補)
LLM 30B以上 / 4K動画編集プロ → 24GB(RTX 3090 / RX 7900 XTX)