← 一覧/ガイド
ローカルAI2026-04-21

ローカルLLMはGPUを買う前にクラウドで試すべきか

まず試してみたいだけなら、クラウドが先でいい
毎日使う前提なら、最終的にはローカルの方が快適で安くなる
クラウドで「自分に必要なVRAM感覚」を掴んでから買うと、後悔しにくい

RTX 4060の8GBで動かしてみると、13Bの壁がすぐ来る。 「もっと賢いモデルを使いたいが、そのためだけに10万以上出すのか」という問いが生まれる。 その前に試す選択肢が、クラウドGPUだ。

クラウドGPUでできること

RunPodやVast.aiは、高性能なGPUを時間課金で借りられるサービスだ。 RTX 4090(24GB VRAM)やA100(80GB)を、初期費用ゼロで使える。

RunPodは価格が比較的わかりやすく、RTX 4090からA100まで時間課金で選べる
Vast.aiはマーケット型で、安い個体が見つかることもある。ただし価格と品質のばらつきが大きい
どちらも価格は変動する。使う前に公式ページで最新の時間単価を確認したい

GPUを10万円以上出して買う前に、「自分の使い方にそのモデルが本当に必要か」を時間課金で確かめられる。 短時間の試用で済む分、失敗しても損失は小さい。

クラウドとローカル、何が違うか

項目クラウドローカル
初期費用ほぼゼロGPU代(4〜20万〜)
月コスト使った分だけ電気代のみ(毎日使うなら安い)
使えるモデル高VRAMを選びやすい(70Bも試せる)VRAMが上限
プライバシーサーバー上で処理完全に手元
応答速度ネット経由(安定性に左右)ネット経由の遅延がない
常時利用サービス依存電源ONですぐ使える

クラウドは「始めやすさ」が圧倒的に強く、ローカルは「使い続けるコスト」と「使い勝手」が有利だ。 逆に言えば、毎日使うならローカルに切り替えた方が長期的に安くなる分岐点がある。

13Bと70Bの速度は、クラウドでどう変わるか

RTX 4060(8GB)で13Bを動かすと、VRAMに入りきらずCPUへのオフロードが起きる。 24GB以上のGPUが使えるクラウドなら、13Bはオフロードなしで動かせる環境に近づく。

ざっくりした傾向(量子化方式・設定・モデルで変わる)
13B on 8GB ローカル — オフロードが発生し、速度が大幅に落ちやすい
13B on 24GB クラウド — フルGPUで動かせる。体感速度が別物になりやすい
70B on 8GB ローカル — VRAMに到底入らない。ほぼCPU処理になり実用外
70B on 高VRAM クラウド — 少なくとも「動く・試せる」状態にはなる

70Bはローカル8GBでは実質動かない。試すこと自体がクラウドでしかできない状況だ。 「本当に70Bが自分に必要か」を確かめるためだけでも、クラウドで試す意味がある。

どちらが向いているか

クラウドが向いている人
・まず動かして、自分に何が必要かを確かめたい
・月に数回しか使わない(毎日でない)
・70Bや大きいモデルを一時的に試したい
・GPU購入前の判断材料が欲しい
ローカルが向いている人
・毎日使う(クラウドより長期コストが安くなる)
・入力内容を外に出したくない(プライバシー優先)
・「すぐ使える」「待ち時間ゼロ」が欲しい
・クラウドで試して、必要なものが見えた

クラウドで試してから、ローカルへ

これが一番失敗しにくい順序だと思う。

1.RunPodかVast.aiでアカウントを作り、少額チャージする
2.RunPodのテンプレートからOllamaを含む環境を起動する(公式セットアップ手順あり)
3.13B・70Bを実際に動かして、自分の用途で使えるか確かめる
4.「このVRAM量があれば十分」という感覚を掴んでからGPUを選ぶ

クラウドで13Bが快適に動いても、ローカルで同じ体験を出すためにはVRAMが必要になる。 その「必要なVRAM量」をクラウドで体感してから買うと、買い直しが起きにくい。

一方で、クラウドを使い続けると「毎回起動が面倒」「ネットがないと使えない」という不満が出る。 そこで初めて「ローカルが欲しい」という気持ちが具体的な形になる。 クラウドは代替品というより、ローカルへの判断材料として機能する。

RunPodとVast.ai、どちらを使うか

どちらも「GPUを時間単位で借りる」サービスだが、性質が少し違う。

RunPod — 安定重視・初めてなら
管理されたインフラで品質が安定している。OllamaやJupyterのテンプレートがあり、起動がシンプル。価格はVast.aiより若干高め。
RunPodを試す →
Vast.ai — 安さ重視・変動あり
個人ホストが提供するマーケットプレイス型。RunPodより安く借りられることもある一方、ホストによってCPUやストレージの品質が異なり、当たり外れがある。価格は供給と需要で常に変動する。
Vast.aiを試す →

初めて使うならRunPodの方がトラブルが少ない。慣れてきてコストを抑えたいならVast.aiで探すのもあり。

クラウドで試したあと、「どのVRAM量が自分に合うか」の判断基準はこちらで整理している。

関連記事
VRAM別でできること|8GB・12GB・16GB・24GBの現実 →

必要なVRAMが見えたら、GPU選びの記事で具体的な機種を絞れる。

関連記事
ローカルLLM向けGPUの選び方|RTX 4060〜4090を用途別に比較 →

GPUの実売価格はここで確認できる。

Gadget Tracker — 価格監視
GPU最安値・価格推移を毎日追跡 →
← RTX 4060の限界VRAM別でできること →