支持的 LLM
AI Assistant 通过 JetBrains AI 服务 提供对多种基于云的 LLM 的访问。 您还可以使用自己的 API 密钥 来访问第三方 AI 提供商的模型或连接到 本地部署 的模型。
这种灵活性使您能够 选择最适合您任务的模型——例如,大型模型用于复杂的代码库操作,小型模型用于快速响应,或者如果您更希望数据私有,则可选择本地模型。
基于云的模型
下表列出了配合 JetBrains AI 服务订阅在 AI Assistant 中可用的模型:
模型 | 功能 | 模型上下文窗口 |
|---|
  Claude 4.6 Opus
|   
| 200k |
  Claude 4.6 Sonnet
| 
| 200k |
  Claude 4.5 Opus
|   
| 200k |
  Claude 4.5 Sonnet
|   
| 200k |
  Claude 4.5 Haiku
| 
| 200k |
  Claude 4.1 Opus
|   
| 200k |
  Claude 4 Sonnet
| 
| 200k |
  Claude 3.7 Sonnet
| 
| 200k |
  Gemini 3.1 Pro
|   
| 1M |
  Gemini 3 Pro
|   
| 1M |
  Gemini 3 Flash
| 
| 1M |
  Gemini 2.5 Pro
| 
| 1M |
  Gemini 2.5 Flash
| 
| 1M |
  Gemini 2.5 Flash-Lite
| 
| 1M |
  Gemini 2.0 Flash
| 
| 1M |
  GPT-5.2
|   
| 400k |
  GPT-5.1-Codex-Max
|   
| 400k |
  GPT-5.1-Codex
|   
| 400k |
  GPT-5.1-Codex-Mini
|   
| 400k |
  GPT-5.1
|   
| 400k |
  GPT-5-Codex
|   
| 400k |
  GPT-5
|   
| 400k |
  GPT-5 mini
|   
| 400k |
  GPT-5 nano
|   
| 400k |
  GPT-4.1
| 
| 1M |
  GPT-4.1 mini
| 
| 1M |
  GPT-4.1 nano
| 
| 1M |
  GPT-4o
| 
| 128k |
  o1
|   
| 200k |
  o3
|   
| 200k |
  o3-mini
| 
| 200k |
  o4-mini
|   
| 200k |
  Grok-4.1 Fast
|   
| 2M |
  Grok-4.1 Fast(非推理版)
| 
| 2M |
  Grok-4
|   
| 256k |
  Grok Code Fast 1
| | 256k |
- 支持的模型历史
下表列出了 AI Assistant 支持的 AI 模型,以及它们首次在对应 IDE 版本中可用的时间和(如适用)被移除的版本。
模型 | 从以下版本开始在 IDE 中提供 | 移除版本 |
|---|
  Claude 4.6 Opus
| 2025.3.x | – |
  Claude 4.6 Sonnet
| 2025.3.x | – |
  Claude 4.5 Opus
| 2025.2.x | – |
  Claude 4.5 Sonnet
| 2025.2.x | – |
  Claude 4.5 Haiku
| 2025.1.x | – |
  Claude 4.1 Opus
| 2025.2.x | – |
  Claude 4 Sonnet
| 2025.1.x | – |
  Claude 3.7 Sonnet
| 2024.3.x | – |
  Claude 3.5 Sonnet
| 2024.3.x | 2025.3 |
  Claude 3.5 Haiku
| 2024.3.x | 2025.3 |
  Gemini 3.1 Pro
| 2025.3.x | – |
  Gemini 3 Pro
| 2025.1.x | – |
  Gemini 3 Flash
| 2025.1.x | – |
  Gemini 2.5 Pro
| 2025.1.x | – |
  Gemini 2.5 Flash
| 2025.1.x | – |
  Gemini 2.5 Flash-Lite
| 2025.1.x | – |
  Gemini 2.0 Flash
| 2024.3.x | – |
  Gemini 1.5 Pro
| 2024.3.x | 2025.1 |
  Gemini 1.5 Flash
| 2024.3.x | 2025.1 |
  GPT-5.2
| 2025.2.x | – |
  GPT-5.1-Codex-Max
| 2025.3.x | – |
  GPT-5.1-Codex
| 2025.3.x | – |
  GPT-5.1-Codex-Mini
| 2025.3.x | – |
  GPT-5.1
| 2025.1.x | – |
  GPT-5-Codex
| 2025.3.x | – |
  GPT-5
| 2025.1.x | – |
  GPT-5 mini
| 2025.1.x | – |
  GPT-5 nano
| 2025.1.x | – |
  GPT-4.1
| 2025.1.x | – |
  GPT-4.1 mini
| 2025.1.x | – |
  GPT-4.1 nano
| 2025.1.x | – |
  GPT-4o
| 2024.2.x | – |
  o4-mini
| 2025.1.x | – |
  o3
| 2025.1.x | – |
  o3-mini
| 2024.3.x | – |
  o1
| 2024.3.x | – |
  o1-mini
| 2024.3.x | 2025.1 |
  Grok-4.1 Fast
| 2025.1.x | – |
  Grok-4.1 Fast(非推理版)
| 2025.1.x | – |
  Grok-4
| 2025.1.x | – |
  Grok Code Fast 1
| 2025.1.x | – |
来自第三方 AI 提供商的模型
AI Assistant 支持 自带密钥 方式,允许您提供自己的 API 密钥,以使用选定第三方 AI 提供商的模型。 您可以在 中配置连接。

有关更多信息,请参见 使用第三方和本地模型。。
本地模型
AI Assistant 支持通过 Ollama 和 LM Studio 可用的部分模型,允许您在本地运行模型,无需依赖云服务。
本地模型的默认 model context window 设置为 64 000 个 token。 如有需要,您可以在设置中 调整 此值。
有关设置本地模型的更多信息,请参阅 连接本地模型。
2026年 3月 16日