はじめに:数学とコードに強い「理系」モデル
Qwen 3 (旧Qwen 2.5系統) は、特に数学、プログラミング、論理的推論においてGPT-4クラスをも凌駕する性能を持っています。
モデルサイズが細かく分かれているため、所有するGPUに合わせて最適なものを選択可能です。
| モデル | VRAM要件 (4bit) | 推奨GPU / 用途 |
|---|---|---|
| Qwen 3 14B | 10GB - 12GB | RTX 3060/4070 (12GB) 推奨。 バランス型。一般的なコーディングや翻訳ならこれで十分。 |
| Qwen 3 32B (Best) | 20GB - 24GB | RTX 3090/4090 (24GB) 推奨。 最もおすすめ。 70Bに匹敵する知能を持ちながら、一般向けハイエンドGPU 1枚で動作。 |
| Qwen 3 72B | 40GB - 48GB | Mac Studio (64GB~) または GPU 2枚挿し。 圧倒的な性能だが構築難易度が高い。 |
手法A:Ollamaで最速セットアップ
コマンド1行で環境が整います。Qwenは更新が頻繁ですが、Ollamaなら常に最新版を取得できます。
Step 2
Qwen の実行
PowerShellを開き、動かしたいモデルサイズに合わせて以下のコマンドを入力します。
32Bモデル (RTX 4090/3090ユーザー推奨)
ollama run qwen2.5:32b
※ GPUメモリが16GB以下の場合はこちら:
14Bモデル (一般的・軽量)
ollama run qwen2.5:14b
💡 Note: 現在Ollamaライブラリでは「qwen 3」ではなく最新安定板の「qwen
2.5」として登録されている場合があります。上記コマンドで最新の安定版が落ちてきます。
手法B:LM Studioで設定を追い込む
コンテキスト長(一度に読める量)を調整したり、システムプロンプトを固定したい場合に便利です。
Step 1
モデルの検索
LM Studioの検索バーに qwen 2.5 または qwen 3 と入力します。
検索結果から、信頼性の高いアップローダー(Qwen公式やBartowskiなど)のモデルを選びます。
Step 2
量子化レベルの選択
自分のVRAM容量に合わせて選びます。
- Q4_K_M (推奨): 画質と速度のバランスが良い。
- Q6_K: VRAMに余裕がある場合。精度が向上。
- IQ3_M: VRAMが足りない場合の緊急用。
トラブルシューティング
Q. 中国語で返答されてしまう
Qwenは学習データに中国語が多く含まれるため、稀に中国語で話し始めることがあります。
解決策: システムプロンプト(System Prompt)に以下を記述して固定してください。
あなたは有能な日本語アシスタントです。常に自然な日本語で回答してください。思考プロセスも日本語で行ってください。
Q. コーディング能力を引き出したい
Qwenは特に「Coder」モデルが優秀です。純粋なプログラミング目的であれば、汎用モデルではなくコード特化型を使うのも手です。
ollama run qwen2.5-coder:32b


