Skip to content

AIモデル設定

Sidianは複数のAIモデルとプロバイダーをサポートしており、特定のニーズに最適なモデルを選択できます。このガイドでは、AIモデルの設定、管理、最適化の方法について説明します。

利用可能なAIモデル

モデルの種類

  • 高速モデル: 応答は速いが、精度は低め
  • バランスモデル: 速度と精度のバランスが良い
  • 高度なモデル: 最高の精度だが、処理時間が長い
  • 特化モデル: 言語やドメインに特化したモデル
  • ローカルモデル: プライバシーを重視したオフライン処理

モデルプロバイダー

  • OpenAI: GPT-5, GPT-4.1, O3, O4-mini モデル
  • Anthropic: Claude Opus 4.1, Claude Sonnet 4, Claude 3.5 モデル
  • Google: Gemini モデル
  • xAI: Grok-3, Grok-3-mini モデル
  • DeepSeek: DeepSeek-V3 モデル
  • Groq: 高速推論モデル
  • Mistral: Mistral AI モデル
  • OpenRouter: 複数のモデルプロバイダーへのアクセス
  • Microsoft Azure: Azure OpenAI Service
  • Google Vertex AI: クラウドベースのAIモデル
  • ローカルプロバイダー: Ollama, LM Studio, vLLM
  • OpenAI互換: カスタムAPIエンドポイント
  • LiteLLM: マルチプロバイダープロキシ
  • Zhipu AI: GLM モデル
  • Qwen: Alibaba Cloud モデル
  • Kimi: Moonshot AI モデル

モデル設定

モデル設定へのアクセス

  1. 設定メニュー: 設定 → プロバイダー/ローカル → ドロップダウンからモデルを選択
  2. ステータスバー: ステータスバーのAIモデルインジケーターをクリック
  3. チャットインターフェース: AIチャットパネルのモデルセレクターをクリック

APIキーの設定

クラウドプロバイダー

クラウドベースのAIモデルを使用するには、APIキーを追加するだけです:

  • OpenAI: 設定 → プロバイダー → OpenAI → APIキーを入力
  • Anthropic: 設定 → プロバイダー → Anthropic → APIキーを入力
  • Google: 設定 → プロバイダー → Google → APIキーを入力
  • その他のプロバイダー: 他のクラウドプロバイダーも同様の手順に従います

ローカルモデル

OllamaやLM Studioのようなローカルモデルの場合:

  • Ollama: Ollamaが http://127.0.0.1:11434 で実行されていることを確認します
  • LM Studio: LM Studioサーバーが http://localhost:1234 で実行されていることを確認します
  • Sidianはローカルモデルサーバーを自動的に検出して接続します

モデル選択戦略

タスクベースの選択

  • コード補完: リアルタイムの提案には高速モデル
  • コード解説: 詳細な分析にはバランスモデル
  • 複雑なリファクタリング: 精度を求めるなら高度なモデル
  • ドキュメント作成: 技術文書作成には特化モデル

パフォーマンス最適化

  • レイテンシ: インタラクティブな機能には高速なモデルを選択
  • 精度: 重要なタスクには高度なモデルを使用
  • コスト: パフォーマンスとAPIコストのバランスを取る
  • プライバシー: 機密性の高いコードにはローカルモデルを使用

コンテキスト管理

  • 短いコンテキスト: 素早い補完や提案に使用
  • 中程度のコンテキスト: 関数レベルの分析に
  • 長いコンテキスト: ファイルやプロジェクトレベルの理解に
  • ストリーミング: リアルタイムで応答を表示するために有効化

モデルの切り替え

動的な切り替え

  • タスクごと: AI機能ごとに異なるモデルを使用
  • 言語ごと: 言語固有のモデル設定
  • プロジェクトごと: プロジェクト固有のモデル設定
  • ユーザーごと: 個々のユーザーの好み

自動フォールバック

  • プライマリの障害: バックアップモデルに自動的に切り替え
  • レート制限: レート制限に達した場合、代替モデルを使用
  • コンテキスト制限: より大きなコンテキストウィンドウを持つモデルに切り替え
  • パフォーマンスの問題: より高速なモデルにフォールバック

パフォーマンスモニタリング

モデルのメトリクス

  • 応答時間: モデルの応答の平均時間
  • 成功率: 成功したリクエストの割合
  • トークン使用量: トークンの消費量とコストを追跡
  • エラー率: 失敗したリクエストとエラーを監視

使用状況分析

  • 機能の使用状況: 最も使用されているAI機能
  • モデルの好み: 最も人気のあるモデルと設定
  • パフォーマンストレンド: 時間経過に伴う応答時間と精度
  • コスト分析: APIの使用状況と関連コスト

トラブルシューティング

よくある問題

モデルが応答しない

  • APIキーの設定を確認する
  • インターネット接続を確認する
  • モデルの利用可能状況を確認する
  • 別のモデルに切り替えてみる

応答が遅い

  • より高速なモデルに切り替える
  • コンテキストウィンドウのサイズを小さくする
  • ネットワークの遅延を確認する
  • システムリソースを監視する

応答の品質が低い

  • 高度なモデルを試す
  • 温度設定を調整する
  • より多くのコンテキストを提供する
  • プロンプトエンジニアリングを確認する

APIエラー

  • APIキーの有効性を確認する
  • レート制限を確認する
  • クォータ使用量を監視する
  • エラーメッセージを確認する

ベストプラクティス

  1. シンプルに始める: デフォルト設定から始め、必要に応じて調整する
  2. 使用状況を監視する: パフォーマンスとコストを定期的に追跡する
  3. モデルをテストする: ユースケースに合わせて異なるモデルを比較する
  4. コンテキストを最適化する: 過剰にならない範囲で関連するコンテキストを提供する
  5. 最新情報を保つ: 新しいモデルや改善点を常に把握する

データプライバシー

  • ローカル処理: 機密性の高いコードにはローカルモデルを使用する
  • データ保持: プロバイダーのデータ保持ポリシーを理解する
  • コンプライアンス: 組織のポリシーへの準拠を確認する
  • 監査ログ: セキュリティ目的でAIの使用状況を監視する

AIモデルの設定は、SidianのAI機能から最高のパフォーマンスを引き出すために不可欠です。様々なモデルや設定を試して、あなたの開発ニーズに最適なものを見つける時間を取ってください。