Note
Gemini 2.0 Flash 处于 公共预览版,可能会更改。 “GitHub 预发行许可条款”适用于你对本产品的使用。
关于 GitHub Copilot 中的 Gemini 2.0 Flash
Gemini 2.0 Flash 是一个大语言模型 (LLM),你可以将其用作 Copilot Chat 所使用的默认模型的替代模型。 Gemini 2.0 Flash 是一种响应式 LLM,可让你更快、更轻松地生成应用,因此你可以专注于为用户提供出色的体验。 有关 Gemini 2.0 Flash 功能的信息,请参阅 面向开发者的 Google 博客和 Google Cloud 文档。 有关 Google 数据处理策略的详细信息,请参阅 Google 网站上的生成式 AI 和数据管理。
Gemini 2.0 Flash 当前可用于:
- Visual Studio Code 中的 Copilot Chat
- GitHub 中 Copilot Chat 中的沉浸式模式
GitHub Copilot 使用 Google Cloud Platform (GCP) 上托管的 Gemini 2.0 Flash。 使用 Gemini 2.0 Flash 时,提示和元数据将发送到 GCP,我们做出以下数据承诺:Gemini 不会使用提示或其响应作为数据来训练其模型。
使用 Gemini 2.0 Flash 时,输入提示和输出完成将继续通过 GitHub Copilot 的内容筛选器运行,这些筛选器会进行公共代码匹配(如果适应),同时筛选有害、冒犯性或偏离主题的内容。
配置访问权限
必须先启用对 Gemini 2.0 Flash 的访问,然后才能使用模型。
设置供个人使用
如果拥有 Copilot Free 或 Copilot Pro 订阅,你可以通过以下两种方式启用 Gemini 2.0 Flash:
-
在 Visual Studio Code 或 Copilot Chat 的沉浸式视图中,首次选择将 Gemini 2.0 Flash 与 Copilot Chat 一起使用时,系统将提示你允许访问该模型。
单击“允许”后,可以使用 Gemini 2.0 Flash 并在 GitHub 上的个人设置中更新策略。****
-
可以直接在 GitHub 网站上的个人设置中启用模型。 请参阅“以单个订阅者身份管理 Copilot 策略”。
针对组织使用的设置
作为或组织所有者,你可以为通过组织获得 Copilot Business 席位分配的每个人启用或禁用 Gemini 2.0 Flash。 请参阅“管理组织中的 Copilot 策略”。
正在使用 Gemini 2.0 Flash
有关如何更改 Copilot Chat 使用的模型的详细信息,请参阅 正在更改 Copilot Chat 的 AI 模型。