AI Assistant Help

使用本地模型

默认情况下,AI Assistant 提供对用于 AI 相关功能的 预定义云模型集合的访问。 不过,您可以将其配置为使用由第三方提供的自定义本地模型。

支持以下第三方提供商:

  • Ollama – 用于本地运行和管理语言模型的命令行工具和运行时环境。 在 Ollama 模型库中浏览可用模型。

  • LM Studio – 一款简化本地运行和操作开源 LLM 的桌面应用程序。 在 LM Studio 模型目录中浏览可用模型。

  • 其他 OpenAI-compatible 接口,例如:

    • llama.cpp – 一个用于本地运行大型语言模型的 C++ 框架。 在 Hugging Face 模型目录中浏览可用模型。

    • LiteLLM – 一款轻量工具,可通过单一 OpenAI-compatible API 连接多个不同的 AI 模型。

连接到第三方提供商

如果您想使用第三方提供商的模型,首先需要连接到该提供商。 为此,您需要启用相应的提供商并指定其可访问的 URL。

  1. 转到 设置 | 工具 | AI Assistant | 模型

  2. 第三方 AI 提供商 部分,选择您的 LLM 提供商并指定其可访问的 URL。 点击 测试连接 以检查是否成功建立连接。

    启用第三方 AI 提供商
  3. 点击 Apply 以保存更改。

连接建立后,配置的模型将可供使用。 您可以 选择这些模型以在聊天中处理请求。

聊天中的第三方提供商模型

在 AI 助理功能中使用自定义模型

自定义模型也可用于其他 AI Assistant 功能,例如代码补全、编辑器内代码生成、提交信息生成等。

配置用于 AI 功能的自定义模型:

  1. 转到 设置 | 工具 | AI Assistant | 模型

  2. 配置您的第三方提供商。

  3. 本地模型 部分,指定要用于核心、轻量和代码补全功能的模型。

    本地模型设置
    • 核心功能 — 该模型将用于编辑器中的代码生成、提交消息生成、对话回复以及其他核心功能。

    • 即时帮助程序 — 该模型将用于轻量级功能,例如名称建议。

    • 补全模型 – 将用于 内联代码补全

  4. 点击 Apply 以保存更改。

配置模型上下文窗口

AI Assistant 允许您为本地模型配置 模型上下文窗口。 较大的窗口可让模型在请求中处理更多上下文,而较小窗口可减少内存使用并可能提升性能。 这有助于在上下文长度与系统资源之间实现平衡。

配置模型上下文窗口:

  1. 转到 设置 | 工具 | AI Assistant | 模型

  2. 配置您的第三方提供商,以便本地模型可供使用。

  3. 本地模型 部分,根据需要调整 上下文窗口 设置。 默认值为 64 000 个 token。

  4. 点击 Apply 以保存更改。

切换为离线模式

如果您希望仅使用本地模型并限制对远程模型的调用,可以启用离线模式。 在此模式下,大部分云模型调用将被阻止,所有 AI 相关功能将依赖本地模型。

启用离线模式:

  1. 转到 设置 | 工具 | AI Assistant | 模型

  2. 配置您的第三方提供商。

  3. 指定您要用于 AI 功能的模型。

  4. 本地模型 部分,启用 离线模式 设置。

  5. 点击 Apply 以保存更改。

完成相关设置后,您可以在需要时切换开启或关闭离线模式:

  1. 点击窗口标题栏中工具栏的 JetBrains AI 微件。

  2. 将鼠标悬停在 离线模式 选项上,并点击 Enable禁用

    禁用离线模式
最后修改日期: 2025年 12月 5日