Qwen 3 (Qwen 2.5) ローカル導入ガイド

Alibaba Cloudの「数学の天才」をPCで。コーディングと理系タスクに最強の相棒を構築します。

Qwen 3 Setup

はじめに:数学とコードに強い「理系」モデル

Qwen 3 (旧Qwen 2.5系統) は、特に数学、プログラミング、論理的推論においてGPT-4クラスをも凌駕する性能を持っています。
モデルサイズが細かく分かれているため、所有するGPUに合わせて最適なものを選択可能です。

モデル VRAM要件 (4bit) 推奨GPU / 用途
Qwen 3 14B 10GB - 12GB RTX 3060/4070 (12GB) 推奨。
バランス型。一般的なコーディングや翻訳ならこれで十分。
Qwen 3 32B (Best) 20GB - 24GB RTX 3090/4090 (24GB) 推奨。
最もおすすめ。 70Bに匹敵する知能を持ちながら、一般向けハイエンドGPU 1枚で動作。
Qwen 3 72B 40GB - 48GB Mac Studio (64GB~) または GPU 2枚挿し。
圧倒的な性能だが構築難易度が高い。

Method A: Ollama (推奨)

手法A:Ollamaで最速セットアップ

コマンド1行で環境が整います。Qwenは更新が頻繁ですが、Ollamaなら常に最新版を取得できます。

Step 1

Ollama のインストール

公式サイト (ollama.com) から Windows版をダウンロードしてインストールしてください。

Step 2

Qwen の実行

PowerShellを開き、動かしたいモデルサイズに合わせて以下のコマンドを入力します。

32Bモデル (RTX 4090/3090ユーザー推奨)

ollama run qwen2.5:32b

※ GPUメモリが16GB以下の場合はこちら:

14Bモデル (一般的・軽量)

ollama run qwen2.5:14b
💡 Note: 現在Ollamaライブラリでは「qwen 3」ではなく最新安定板の「qwen 2.5」として登録されている場合があります。上記コマンドで最新の安定版が落ちてきます。
Method B: LM Studio (GUI)

手法B:LM Studioで設定を追い込む

コンテキスト長(一度に読める量)を調整したり、システムプロンプトを固定したい場合に便利です。

Step 1

モデルの検索

LM Studioの検索バーに qwen 2.5 または qwen 3 と入力します。

検索結果から、信頼性の高いアップローダー(Qwen公式やBartowskiなど)のモデルを選びます。

Step 2

量子化レベルの選択

自分のVRAM容量に合わせて選びます。

  • Q4_K_M (推奨): 画質と速度のバランスが良い。
  • Q6_K: VRAMに余裕がある場合。精度が向上。
  • IQ3_M: VRAMが足りない場合の緊急用。

トラブルシューティング

Q. 中国語で返答されてしまう

Qwenは学習データに中国語が多く含まれるため、稀に中国語で話し始めることがあります。

解決策: システムプロンプト(System Prompt)に以下を記述して固定してください。

あなたは有能な日本語アシスタントです。常に自然な日本語で回答してください。思考プロセスも日本語で行ってください。

Q. コーディング能力を引き出したい

Qwenは特に「Coder」モデルが優秀です。純粋なプログラミング目的であれば、汎用モデルではなくコード特化型を使うのも手です。

ollama run qwen2.5-coder:32b

🤖 他のLLM構築ガイドもチェック