📝 エグゼクティブサマリー
Gemini 3 Proは、Google DeepMindが2025年11月にリリースした最新のフラッグシップAIモデルです。
業界最大級の100万トークンのコンテキストウィンドウと、ネイティブマルチモーダル機能を核とし、特に動画や音声の理解において他社モデルを圧倒しています。
「Deep Think Mode」による推論能力は強力ですが、リリース後の調整による性能変化(いわゆるNerfing)や、長文脈での記憶保持に関する不安定さがユーザーから指摘されています。
💰 料金体系の詳細
サブスクリプションプラン
| プラン | 料金 | 主な特徴 |
|---|---|---|
| Gemini Free | $0 | Gemini (制限あり), 基本機能 |
| Google AI Plus | $7.99/月 | Gemini 3 Pro (128k), アプリ統合 |
| Google AI Pro | $19.99/月 | Gemini 3 Pro (1M), Deep Think Mode |
API料金 (Gemini 3 Pro)
- Input: $2.00 / 1M tokens (>200k: $4.00)
- Output: $12.00 / 1M tokens (>200k: $18.00)
- Image: $0.0011 / image
🎯 主要ベンチマーク結果
| ベンチマーク | スコア | 評価 |
|---|---|---|
| GPQA Diamond (Deep Think) | 93.8% | 世界最高レベル |
| SWE-bench Verified | 76.2% | Claudeに劣る |
| Video-MMMU | 87.6% | 動画理解で圧倒的 |
| Humanity's Last Exam | 45.1% | 高難易度推論で優秀 |
✅ 長所と短所
👍 長所
- 卓越したマルチモーダル能力 (Video/Audio)
- 業界最大級の1Mトークンコンテキスト
- Deep Think Modeによる優れた推論
👎 短所
- リリース直後と比較した性能低下 (Nerfing疑惑)
- コンテキスト保持の不安定性
- コーディングタスクでの過信と怠慢
💭 Reddit ユーザー評価
ポジティブな意見 TOP3
「長時間の会議録音をそのまま投げて要約させられるのはGeminiだけ。マルチモーダルは本物だ」
— r/GoogleGemini ユーザー
「Deep Thinkを使った時の推論力は凄まじい。複雑な数学の問題もステップバイステップで解いてくれる」
— r/Bard ユーザー
「100万トークンは正義。リファレンスを全部読み込ませて開発できるのは快適すぎる」
— X (Twitter) ユーザー
ネガティブな意見 TOP3
「明らかにリリース時より馬鹿になってる。単純な指示も忘れるし、これじゃあProの意味がない」
— r/GoogleGemini ユーザー
「コードを書かせると途中でサボる(Lazy)。"残りは自分で書いて"みたいな省略が多すぎる」
— r/vibecoding ユーザー
「長い会話をしていると、突然最初の方の設定を忘れることがある。記憶喪失か?」
— r/LocalLLaMA ユーザー
🎯 推奨使用例
最適な用途 TOP3
- 動画・音声を含むマルチモーダル分析 - YouTube動画の内容検索、議事録作成
- 大量のドキュメント・コードベースの全体解析 - 100万トークンを活かした横断検索
- Deep Thinkを用いた複雑な推論タスク - 研究計画の立案、数理解析
推奨しない用途 TOP3
- 100%の精度が必要な本番コーディング - Claude Opus 4.5の方が信頼性が高い
- 長期記憶が必要なチャットセッション - 記憶の揮発性が報告されているため
- リアルタイム性が最優先の単純会話 - Deep Thinkの待機時間がボトルネックになる
📊 結論と総合評価
総合評価: ⭐⭐⭐⭐ (4.0/5.0)
Gemini 3 Proは、Googleの技術力を結集した「何でも屋」の天才です。特にマルチモーダル処理と巨大なコンテキストウィンドウは、他の追随を許さない強みです。
しかし、ユーザー体験の安定性という点では課題が残ります。「Nerfing(弱体化)」の疑念や、コーディング時の気まぐれさは、プロフェッショナルな実務での信頼性を損なう要因となっています。
研究、分析、マルチメディア処理には最適ですが、純粋なコーディングエージェントとしてはClaudeやGPTの後塵を拝する場面もあるでしょう。
🔮 今後の展望
Googleは頻繁にモデルのアップデートを行っており、安定性の向上と「Deep Think」の高速化が期待されます。また、さらなるコンテキスト拡張(2M?)の噂もあり、インフラとの統合が進めば真の「AIアシスタント」としての地位を確立する可能性があります。