生成 AI アプリケーションを開発する場合は、GitHub Models を使用して、AI モデルを無料で検索して実験できます。 アプリケーションを運用環境に移行する準備ができたら、有料の Azure アカウントからトークンに切り替えることができます。 Azure AI のドキュメントを参照してください。
「GitHub モデルの責任ある使用」も参照してください。
AI モデルの検索
AI モデルを検索するには、GitHub Marketplace に移動し、サイドバーの [モデル] をクリックします。
モデルの詳細を表示するには、モデル名をクリックします。
Note
OpenAI の o1
モデルは現在 パブリック プレビュー にあり、変更される可能性があります。 アクセスを要求するには、記入待ちリストに登録します。
プレイグラウンドでの AI モデルの実験
Note
このプレイグラウンドは パブリック プレビュー にあり、変更される可能性があります。 アクセスを要求するには、待機リストに登録します。
GitHub Marketplace には、モデル パラメーターを調整し、モデルがどのように応答するかを確認するためのプロンプトを送信できる無料のプレイグラウンドが用意されています。
プレイグラウンドを開くには、GitHub Marketplace に移動し、サイドバーの [モデル] をクリックします。 モデルの名前をクリックし、 [プレイグラウンド] をクリックします。
モデルのパラメーターを調整するには、サイドバーの [パラメーター] タブを選択します。 選択したパラメーターに対応するコードを表示するには、 [チャット] タブから [コード] タブに切り替えます。
プレイグラウンドにはレート制限があります。 以下の「レート制限」を参照してください。
API を使用した AI モデルの実験
Note
この無料 API の使用は パブリック プレビュー にあり、変更される可能性があります。 アクセスを要求するには、待機リストに登録します。
GitHub には無料の API 使用が用意されているため、独自のアプリケーションで AI モデルを実験できます。
独自のアプリケーションでモデルを使用する方法を知るには、GitHub Marketplace に移動し、サイドバーの [モデル] をクリックします。 モデルの名前をクリックし、 [コード] をクリックします。
各モデルを使用する手順は似ています。 一般的に、次のことを行う必要があります。
-
必要に応じて、言語ドロップダウンを使用してプログラミング言語を選択します。
-
必要に応じて、SDK ドロップダウンを使用して、使用する SDK を選択します。
すべてのモデルを Azure AI 推論 SDK と共に使用でき、一部のモデルでは追加の SDK がサポートされています。 モデルを簡単に切り替えたい場合は、[Azure AI 推論 SDK] を選択する必要があります。 言語として [REST] を選択した場合、SDK は使用されません。 代わりに、API エンドポイントを直接使用します。
-
codespace を開くか、ローカル環境を設定します。
- codespace で実行するには、 [codespace の実行] をクリックし、[新しい codespace の作成] をクリックします。
- ローカルで実行するには:
- GitHub personal access token を作成します。 トークンはスコープやアクセス許可を持つべきではありません。 「個人用アクセス トークンを管理する」を参照してください。
- トークンを環境変数として保存します。
- 必要に応じて、SDK の依存関係をインストールします。
-
サンプル コードを使用して、モデルに要求を行います。
無料の API の使用はレート制限されています。 以下の「レート制限」を参照してください。
GitHub CLI を使用した AI モデルの実験
Note
GitHub Models の CLI 拡張機能は パブリック プレビュー 段階であり、変更される可能性があります。
GitHub CLI で GitHub Models を使用すると、コマンド ラインから AI モデルを使った実験を行えます。
前提条件
GitHub Models の CLI 拡張機能を使用するには、GitHub CLI がインストールされている必要があります。 GitHub CLI のインストール手順については、GitHub CLI リポジトリを参照してください。
拡張機能をインストールする
-
GitHub CLI アカウントでまだ認証していない場合は、ターミナルで次のコマンドを実行します。
Shell gh auth login
gh auth login
-
GitHub Models 拡張機能をインストールするには、次のコマンドを実行します。
Shell gh extension install https://github.com/github/gh-models
gh extension install https://github.com/github/gh-models
拡張機能を使用する
使用可能なすべてのコマンドの一覧を表示するには、gh models help
を実行します。 拡張機能を対話型モードで実行するには、gh models run
を実行します。 これにより、モデルを選択し、プロンプトを入力するように求められます。 その後、拡張機能はモデルからの応答を返します。
GitHub CLI でできることの詳細については、GitHub CLI マニュアルを参照してください。
運用環境への移行
プレイグラウンドと無料 API の使用のレート制限は、モデルでの実験や AI アプリケーションの開発に役立ちます。 アプリケーションを運用環境に移行する準備ができたら、GitHub personal access token ではなく、有料の Azure アカウントのトークンを使用できます。 コードで他に変更する必要はありません。 詳細については、Azure AI のドキュメントを参照してください。
転送率の制限
プレイグラウンドと無料の API の使用には、1 分あたりの要求数、1 日あたりの要求数、要求あたりのトークン数、同時要求数のレート制限があります。 レート制限を受けた場合、さらに要求を行うには、該当したレート制限がリセットされるまで待つ必要があります。
低、高、埋め込みモデルのレート制限は異なります。 使用しているモデルの種類を確認するには、GitHub Marketplace のモデルの情報を参照してください。
レート制限レベル | 転送率の制限 | 無料版および Copilot Individual | Copilot Business | Copilot Enterprise |
---|---|---|---|---|
低 | 1 分あたりの要求数 | 15 | 15 | 20 |
1 日あたりの要求数 | 150 | 300 | 450 | |
要求あたりのトークン数 | 8000 入力、4000 出力 | 8000 入力、4000 出力 | 8000 入力、8000 出力 | |
同時要求数 | 5 | 5 | 8 | |
高 | 1 分あたりの要求数 | 10 | 10 | 15 |
1 日あたりの要求数 | 50 | 100 | 150 | |
要求あたりのトークン数 | 8000 入力、4000 出力 | 8000 入力、4000 出力 | 16000 入力、8000 出力 | |
同時要求数 | 2 | 2 | 4 | |
埋め込み | 1 分あたりの要求数 | 15 | 15 | 20 |
1 日あたりの要求数 | 150 | 300 | 450 | |
要求あたりのトークン数 | 64000 | 64000 | 64000 | |
同時要求数 | 5 | 5 | 8 | |
Azure OpenAI o1-preview | 1 分あたりの要求数 | 1 | 2 | 2 |
1 日あたりの要求数 | 8 | 10 | 12 | |
要求あたりのトークン数 | 4000 入力、4000 出力 | 4000 入力、4000 出力 | 4000 入力、8000 出力 | |
同時要求数 | 1 | 1 | 1 | |
Azure OpenAI o1-mini | 1 分あたりの要求数 | 2 | 3 | 3 |
1 日あたりの要求数 | 12 | 15 | 20 | |
要求あたりのトークン数 | 4000 入力、4000 出力 | 4000 入力、4000 出力 | 4000 入力、4000 出力 | |
同時要求数 | 1 | 1 | 1 |
これらの制限は、予告なしに変更される場合があります。
フィードバックを行う
GitHub Models に関するフィードバックを行うには、GitHub Community で新しいディスカッションを開始するか、既存のディスカッションにコメントします。