GitHub Copilot の AI モデルの比較
GitHub Copilot は、さまざまな能力を持つ複数の AI モデルをサポートします。 選んだモデルは、Copilot Chat および Copilot のコード補完による応答の品質と関連性に影響します。 待機時間が少ないモデルや、特定のタスクではハルシネーションが少ない、またはパフォーマンスが高いモデルがあります。 このガイドは、モデル名だけでなく、タスクに基づいて最適なモデルを選ぶのに役立ちます。
メモ
モデルごとに Premium リクエストの乗数が異なるため、毎月の使用許容量がどの程度使われるかに影響する可能性があります。 詳細については、「GitHub Copilot における要求」を参照してください。
タスク別の推奨モデル
次の表は、適切なモデルをすばやく見つけるのにお使いください。詳細については、後のセクションを参照してください。
モデル | タスク領域 | 長所 (主なユース ケース) | その他の機能 |
---|---|---|---|
GPT-4.1 | 汎用のコーディングとライティング | 高速で正確なコード補完と説明 | エージェント モード、視覚化 |
GPT-4o | 汎用のコーディングとライティング | 高速の補完と視覚的な入力の理解 | エージェント モード、視覚化 |
o3 | 詳細な推論とデバッグ | 複数ステップの問題解決とアーキテクチャ レベルのコード分析 | 認識力 |
o4-mini | 単純なタスクや反復的なタスクに関する高速の支援 | 軽量なコーディングの質問に対する高速で信頼性の高い回答 | 待ち時間の短縮 |
Claude Opus 4 | 詳細な推論とデバッグ | 複雑な問題解決の課題、高度な推論 | 推論、ビジョン |
Claude Sonnet 3.5 | 単純なタスクや反復的なタスクに関する高速の支援 | コード、構文、ドキュメントに対するすばやい応答 | エージェント モード |
Claude Sonnet 3.7 | 詳細な推論とデバッグ | 大規模で複雑なコードベース全体の構造化された推論 | エージェント モード |
Claude Sonnet 4 | 詳細な推論とデバッグ | コーディング ワークフローに最適な、パフォーマンスと実用性の完璧なバランス | エージェント モード、ビジョン |
Gemini 2.5 Pro | 詳細な推論とデバッグ | 複雑なコード生成、デバッグ、調査ワークフロー | 認識力 |
Gemini 2.0 Flash | ビジュアルの処理 (図、スクリーンショット) | UI と図に基づくタスクに関するリアルタイムの応答と視覚的な推論 | ビジュアル |
タスク: 汎用のコーディングとライティング
品質、速度、コスト効率のバランスが必要な一般的な開発タスクには、これらのモデルを使います。 これらのモデルは、特定の要件がない場合に既定で使うのに適しています。
モデル | 適している理由 |
---|---|
GPT-4.1 | コーディングとライティングのほとんどのタスクに対する信頼性の高い既定値。 高速かつ正確で、言語やフレームワークが違っても良好に動作します。 |
GPT-4o | GPT-4 レベルのパフォーマンスをより短い待ち時間で提供します。 |
Claude Sonnet 3.7 | 明確で構造化された出力を生成します。 書式設定の指示に従い、一貫したスタイルを保ちます。 |
Gemini 2.0 Flash | 高速で高いコスト効率。 簡単な質問、短いコード スニペット、軽いライティング タスクに適しています。 |
o4-mini | 速度とコスト効率に最適化されています。 使用量のオーバーヘッドが少ないリアルタイムの提案に最適です。 |
これらのモデルを使用すべきとき
次のことが必要な場合は、これらのモデルのいずれかをお使いください。
- 関数、短いファイル、またはコードの差分を記述または確認します。
- ドキュメント、コメント、または概要を生成します。
- エラーや予期しない動作をすばやく説明します。
- 英語以外のプログラミング環境で作業します。
別のモデルを使用すべきとき
複雑なリファクタリング、アーキテクチャの決定、またはマルチステップ ロジックの作業を行っている場合は、「詳細な推論とデバッグ」のモデルを検討してください。 反復的な編集や 1 回限りのコードの提案など、高速でシンプルなタスクの場合は、「単純なタスクや反復的なタスクに関する高速の支援」を参照してください。
タスク: 単純なタスクや反復的なタスクに関する高速の支援
これらのモデルは、速度と応答性のために最適化されています。 これらは簡単な編集、ユーティリティ関数、構文のヘルプ、軽量のプロトタイプ作成に最適です。 必要以上に詳細な、または長い推論チェーンを待たずに、速やかに回答を得ることができます。
推奨されるモデル
モデル | 適している理由 |
---|---|
o4-mini | 反復的または単純なコーディング タスクのための迅速でコスト効率の高いモデル。 明確で簡潔な提案を提供します。 |
Claude Sonnet 3.5 | 迅速な応答と高品質の出力のバランスを取ります。 小さなタスクや軽量のコードの説明に最適です。 |
Gemini 2.0 Flash | 非常に短い待ち時間とマルチモーダルのサポート (使用可能な場合)。 高速で対話形式のフィードバックに最適です。 |
これらのモデルを使用すべきとき
次のことが必要な場合は、これらのモデルのいずれかをお使いください。
- 小さい関数やユーティリティ コードを記述または編集します。
- 構文や言語について簡単な質問をします。
- 最小限のセットアップでアイデアのプロトタイプを作成します。
- 簡単なプロンプトや編集に関するフィードバックをすばやく入手します。
別のモデルを使用すべきとき
複雑なリファクタリング、アーキテクチャの決定、またはマルチステップ ロジックの作業を行っている場合は、「詳細な推論とデバッグ」をご覧ください。 より強力な汎用の推論またはより構造化された出力を必要とするタスクについては、「汎用コーディングとライティング」を参照してください。
タスク: 詳細な推論とデバッグ
これらのモデルは、ステップ バイ ステップの推論、複雑な意思決定、または高コンテキストの認識を必要とするタスク用に設計されています。 構造化された分析、よく考えられたコード生成、または複数のファイルの理解が必要な場合に適切に機能します。
推奨されるモデル
モデル | 適している理由 |
---|---|
o3 | アルゴリズムの設計、システム デバッグ、アーキテクチャの決定に適しています。 パフォーマンスと推論のバランスを取ります。 |
Claude Sonnet 3.7 | 高速のタスクとより深い思考の両方に適応するハイブリッド推論を提供します。 |
Claude Sonnet 4 | より信頼性の高い補完と、厳しい条件下でのより優れた推論で、3.7 を改善します。 |
Claude Opus 4 | Anthropic の最も強力なモデルです。 戦略、デバッグ、多層ロジックに優れています。 |
Gemini 2.5 Pro | 長いコンテキストでの高度な推論と、科学的または技術的な分析。 |
これらのモデルを使用すべきとき
次のことが必要な場合は、これらのモデルのいずれかをお使いください。
- 複数のファイルを対象にコンテキストに関する複雑な問題をデバッグします。
- 大規模な、または相互に接続されたコードベースをリファクタリングします。
- 複数のレイヤーを対象とする機能またはアーキテクチャを計画します。
- ライブラリ、パターン、またはワークフローの間のトレードオフを比較します。
- ログ、パフォーマンス データ、またはシステムの動作を分析します。
別のモデルを使用すべきとき
高速の反復的または軽量なタスクについては、「単純なタスクや反復的なタスクに関する高速の支援」を参照してください。 一般的な開発ワークフローまたはコンテンツの生成については、「汎用のコーディングとライティング」を参照してください。
タスク: ビジュアルの処理 (図、スクリーンショット)
スクリーンショット、図、UI コンポーネント、その他の視覚的な入力について質問したい場合は、これらのモデルを使います。 これらのモデルはマルチモーダル入力をサポートしており、フロントエンドの作業や視覚的なデバッグに適しています。
モデル | 適している理由 |
---|---|
GPT-4o | イメージ入力をサポートします。 スクリーンショットの解釈や、ビジュアル コンテキストでの UI の問題のデバッグに最適です。 |
Gemini 2.0 Flash | リアルタイム対話用に最適化された高速のマルチモーダル モデル。 図、ビジュアル プロトタイプ、UI レイアウトに関するフィードバックに役立ちます。 |
これらのモデルを使用すべきとき
次のことが必要な場合は、これらのモデルのいずれかをお使いください。
- 図、スクリーンショット、または UI コンポーネントについて質問します。
- 視覚的な下書きまたはワークフローに関するフィードバックを受け取ります。
- ビジュアル コンテキストからフロントエンドの動作を理解します。
ヒント
画像入力をサポートしていないコンテキストでモデルを使っている場合 (コード エディターなど)、視覚的な推論の利点は見られません。 MCP サーバーを使って、視覚的な入力に間接的にアクセスできる場合があります。 「モデル コンテキスト プロトコル (MCP) を使用した Copilot Chat の拡張」を参照してください。
別のモデルを使用すべきとき
タスクに詳細な推論または大規模なリファクタリングが含まれている場合は、「詳細な推論とデバッグ」のモデルを検討してください。 テキストのみのタスクや簡単なコード編集の場合は、「単純なタスクや反復的なタスクに関する高速の支援」を参照してください。
次のステップ
適切なモデルを選ぶと、Copilot を最大限に活用できます。 どのモデルを使えばよいかわからない場合は、GPT-4.1 や GPT-4o などの汎用オプションを使って始めた後、ニーズに基づいて調整します。
- モデルの仕様と価格について詳しくは、「Copilot でサポートされている AI モデル」をご覧ください。
- さまざまなモデルの使用方法の他の例については、「さまざまなタスクを使った AI モデルの比較」をご覧ください。
- モデルの切り替えについては、「Copilot Chat の AI モデルを変更する」または「Copilot コード補完の AI モデルを変更する」をご覧ください。
- Copilot Chat がどのようにさまざまな AI モデルを提供しているかについては、「Copilot Chat のモデルのホスティング」を参照してください。