Skip to content

AI 模型配置

Sidian 支持多种 AI 模型和提供商,让您可以根据具体需求选择最佳模型。本指南将介绍如何配置、管理和优化 AI 模型。

可用的 AI 模型

模型类型

  • 快速模型: 响应速度快,但准确性较低
  • 平衡模型: 在速度和准确性之间取得良好平衡
  • 高级模型: 准确性最高,但处理时间较长
  • 专用模型: 特定于语言或领域的模型
  • 本地模型: 注重隐私的离线处理

模型提供商

  • OpenAI: GPT-5, GPT-4.1, O3, O4-mini 模型
  • Anthropic: Claude Opus 4.1, Claude Sonnet 4, Claude 3.5 模型
  • Google: Gemini 模型
  • xAI: Grok-3, Grok-3-mini 模型
  • DeepSeek: DeepSeek-V3 模型
  • Groq: 高速推理模型
  • Mistral: Mistral AI 模型
  • OpenRouter: 访问多个模型提供商
  • Microsoft Azure: Azure OpenAI 服务
  • Google Vertex AI: 基于云的 AI 模型
  • 本地提供商: Ollama, LM Studio, vLLM
  • OpenAI 兼容: 自定义 API 端点
  • LiteLLM: 多提供商代理
  • 智谱 AI (Zhipu AI): GLM 模型
  • Qwen (通义千问): 阿里云模型
  • Kimi: Moonshot AI 模型

模型配置

访问模型设置

  1. 设置菜单: 前往“设置” → “提供商/本地” → 从下拉菜单中选择模型
  2. 状态栏: 点击状态栏中的 AI 模型指示器
  3. 聊天界面: 点击 AI 聊天面板中的模型选择器

设置 API 密钥

云提供商

要使用基于云的 AI 模型,只需添加您的 API 密钥:

  • OpenAI: 前往“设置” → “提供商” → “OpenAI” → 输入您的 API 密钥
  • Anthropic: 前往“设置” → “提供商” → “Anthropic” → 输入您的 API 密钥
  • Google: 前往“设置” → “提供商” → “Google” → 输入您的 API 密钥
  • 其他提供商: 对任何云提供商都遵循相同的模式

本地模型

对于像 Ollama 或 LM Studio 这样的本地模型:

  • Ollama: 确保 Ollama 正在 http://127.0.0.1:11434 运行
  • LM Studio: 确保 LM Studio 服务器正在 http://localhost:1234 运行
  • Sidian 会自动检测并连接到本地模型服务器

模型选择策略

基于任务的选择

  • 代码补全: 使用快速模型以获得实时建议
  • 代码解释: 使用平衡模型进行详细分析
  • 复杂重构: 使用高级模型以确保准确性
  • 文档生成: 使用专用模型进行技术写作

性能优化

  • 延迟: 为交互式功能选择更快的模型
  • 准确性: 为关键任务使用高级模型
  • 成本: 平衡性能与 API 成本
  • 隐私: 对敏感代码使用本地模型

上下文管理

  • 短上下文: 用于快速补全和建议
  • 中等上下文: 用于函数级别的分析
  • 长上下文: 用于文件或项目级别的理解
  • 流式传输: 启用以实时显示响应

模型切换

动态切换

  • 按任务切换: 为不同的 AI 功能使用不同的模型
  • 按语言切换: 特定于语言的模型偏好
  • 按项目切换: 特定于项目的模型配置
  • 按用户切换: 个性化的用户偏好

自动回退

  • 主模型失败: 自动切换到备用模型
  • 速率限制: 达到速率限制时使用替代模型
  • 上下文限制: 切换到具有更大上下文窗口的模型
  • 性能问题: 回退到更快的模型

性能监控

模型指标

  • 响应时间: 模型响应的平均时间
  • 成功率: 成功请求的百分比
  • Token 使用量: 跟踪 Token 消耗和成本
  • 错误率: 监控失败的请求和错误

使用情况分析

  • 功能使用: 哪些 AI 功能使用最频繁
  • 模型偏好: 最受欢迎的模型和设置
  • 性能趋势: 响应时间和准确性随时间的变化
  • 成本分析: API 使用情况及相关成本

故障排除

常见问题

模型无响应

  • 检查 API 密钥配置
  • 验证互联网连接
  • 检查模型可用性状态
  • 尝试切换到不同的模型

响应缓慢

  • 切换到更快的模型
  • 减小上下文窗口大小
  • 检查网络延迟
  • 监控系统资源

响应质量差

  • 尝试使用高级模型
  • 调整温度 (temperature) 设置
  • 提供更多上下文
  • 检查提示工程 (prompt engineering)

API 错误

  • 验证 API 密钥的有效性
  • 检查速率限制
  • 监控配额使用情况
  • 查看错误消息

最佳实践

  1. 从简开始: 从默认设置开始,并根据需要进行调整
  2. 监控使用情况: 定期跟踪性能和成本
  3. 测试模型: 为您的使用场景比较不同的模型
  4. 优化上下文: 提供相关上下文,但不要过载
  5. 保持更新: 关注新模型和改进

数据隐私

  • 本地处理: 对敏感代码使用本地模型
  • 数据保留: 了解提供商的数据保留政策
  • 合规性: 确保符合组织政策
  • 审计日志: 为安全目的监控 AI 使用情况

AI 模型配置对于从 Sidian 的 AI 功能中获得最佳性能至关重要。请花时间试验不同的模型和设置,以找到最适合您开发需求的配置。