支持的 LLM
AI Assistant 支持多种先进的基于云的 LLM,也支持使用本地托管的模型。 这种灵活性使您能够 选择最适合您特定任务的模型。 例如,您可能希望使用大型模型来处理复杂的代码库相关任务,使用紧凑模型以获取快速响应,或使用本地模型以保护您的数据隐私。
基于云的模型
下表列出了 AI Assistant 中可供选择的模型:
模型 | 功能 | 模型上下文窗口 |
|---|
  Claude 4.5 Opus
|   
| 200k |
  Claude 4.5 Sonnet
|   
| 200k |
  Claude 4.5 Haiku
| 
| 200k |
  Claude 4.1 Opus
|   
| 200k |
  Claude 4 Sonnet
| 
| 200k |
  Claude 3.7 Sonnet
| 
| 200k |
  Gemini 3 Pro
|   
| 1M |
  Gemini 2.5 Pro
| 
| 1M |
  Gemini 2.5 Flash
| 
| 1M |
  Gemini 2.5 Flash-Lite
| 
| 1M |
  Gemini 2.0 Flash
| 
| 1M |
  GPT-5.1-Codex
|   
| 400k |
  GPT-5.1-Codex-Mini
|   
| 400k |
  GPT-5.1
|   
| 400k |
  GPT-5-Codex
|   
| 400k |
  GPT-5
|   
| 400k |
  GPT-5 mini
|   
| 400k |
  GPT-5 nano
|   
| 400k |
  GPT-4.1
| 
| 1M |
  GPT-4.1 mini
| 
| 1M |
  GPT-4.1 nano
| 
| 1M |
  GPT-4o
| 
| 128k |
  o1
|   
| 200k |
  o3
|   
| 200k |
  o3-mini
| 
| 200k |
  o4-mini
|   
| 200k |
- 支持的模型历史
下表列出了 AI Assistant 支持的 AI 模型,以及它们首次在对应 IDE 版本中可用的时间和(如适用)被移除的版本。
模型 | 从以下版本开始在 IDE 中提供 | 移除版本 |
|---|
  Claude 4.5 Opus
| 2025.2.x | – |
  Claude 4.5 Sonnet
| 2025.2.x | – |
  Claude 4.5 Haiku
| 2025.1.x | – |
  Claude 4.1 Opus
| 2025.2.x | – |
  Claude 4 Sonnet
| 2025.1.x | – |
  Claude 3.7 Sonnet
| 2024.3.x | – |
  Claude 3.5 Sonnet
| 2024.3.x | 2025.3 |
  Claude 3.5 Haiku
| 2024.3.x | 2025.3 |
  Gemini 3 Pro
| 2025.1.x | – |
  Gemini 2.5 Pro
| 2025.1.x | – |
  Gemini 2.5 Flash
| 2025.1.x | – |
  Gemini 2.5 Flash-Lite
| 2025.1.x | – |
  Gemini 2.0 Flash
| 2024.3.x | – |
  Gemini 1.5 Pro
| 2024.3.x | 2025.1 |
  Gemini 1.5 Flash
| 2024.3.x | 2025.1 |
  GPT-5.1-Codex
| 2025.3.x | – |
  GPT-5.1-Codex-Mini
| 2025.3.x | – |
  GPT-5.1
| 2025.1.x | – |
  GPT-5-Codex
| 2025.3.x | – |
  GPT-5
| 2025.1.x | – |
  GPT-5 mini
| 2025.1.x | – |
  GPT-5 nano
| 2025.1.x | – |
  GPT-4.1
| 2025.1.x | – |
  GPT-4.1 mini
| 2025.1.x | – |
  GPT-4.1 nano
| 2025.1.x | – |
  GPT-4o
| 2024.2.x | – |
  o4-mini
| 2025.1.x | – |
  o3
| 2025.1.x | – |
  o3-mini
| 2024.3.x | – |
  o1
| 2024.3.x | – |
  o1-mini
| 2024.3.x | 2025.1 |
本地模型
AI Assistant 支持通过 Ollama、 LM Studio 以及其他 兼容 OpenAI 的终端,如 llama.cpp 或 LiteLLM 提供的部分模型。 这些模型经过本地使用优化,使得无需云端访问即可启用强大的 AI 功能。
本地模型的默认 model context window 设置为 64 000 个 token。 如有需要,您可以在设置中 调整 此值。
有关设置本地模型的更多信息,请参阅 使用本地模型。
最后修改日期: 2025年 12月 5日