模型
使用此页面 设置AI Assistant 功能的自定义模型并启用 离线模式。

第三方 AI 提供商
项目 | 描述 |
|---|---|
提供商 | 选择您想要使用其自定义模型的第三方 AI 提供方(LM Studio、 Ollama 及兼容 OpenAI 的服务,如 llama.cpp 和 LiteLLM)。 |
URL | 指定可访问第三方提供方的 URL。 要检查连接是否已建立,请点击 测试连接。 |
如需更多信息,请参阅 连接到第三方提供商。
本地模型
项目 | 描述 |
|---|---|
核心功能 | 选择必须用于编辑器内代码生成、提交信息生成、聊天响应以及其他核心功能的自定义模型。 |
即时帮助程序 | 选择必须用于轻量级功能(例如名称建议)的自定义模型。 |
补全模型 | 选择必须用于 内联代码补全的自定义模型。 |
上下文窗口 | 为本地模型指定 模型上下文窗口的大小。 此设置决定模型一次可处理多少上下文信息。 较大的窗口允许更多上下文,而较小的窗口可减少内存使用情况并可能提升性能。 默认情况下,上下文窗口设置为 64 000 个标记。 如需更多信息,请参阅 配置模型上下文窗口。 |
离线模式 | 启用此设置可优先使用本地模型而不是基于云的模型。 如需更多信息,请参阅 切换为离线模式。 |
如需更多信息,请参阅 在 AI 助理功能中使用自定义模型。
最后修改日期: 2025年 12月 5日