AIモデル設定
Sidianは複数のAIモデルとプロバイダーをサポートしており、特定のニーズに最適なモデルを選択できます。このガイドでは、AIモデルの設定、管理、最適化の方法について説明します。
利用可能なAIモデル
モデルの種類
- 高速モデル: 応答は速いが、精度は低め
- バランスモデル: 速度と精度のバランスが良い
- 高度なモデル: 最高の精度だが、処理時間が長い
- 特化モデル: 言語やドメインに特化したモデル
- ローカルモデル: プライバシーを重視したオフライン処理
モデルプロバイダー
- OpenAI: GPT-5, GPT-4.1, O3, O4-mini モデル
- Anthropic: Claude Opus 4.1, Claude Sonnet 4, Claude 3.5 モデル
- Google: Gemini モデル
- xAI: Grok-3, Grok-3-mini モデル
- DeepSeek: DeepSeek-V3 モデル
- Groq: 高速推論モデル
- Mistral: Mistral AI モデル
- OpenRouter: 複数のモデルプロバイダーへのアクセス
- Microsoft Azure: Azure OpenAI Service
- Google Vertex AI: クラウドベースのAIモデル
- ローカルプロバイダー: Ollama, LM Studio, vLLM
- OpenAI互換: カスタムAPIエンドポイント
- LiteLLM: マルチプロバイダープロキシ
- Zhipu AI: GLM モデル
- Qwen: Alibaba Cloud モデル
- Kimi: Moonshot AI モデル
モデル設定
モデル設定へのアクセス
- 設定メニュー: 設定 → プロバイダー/ローカル → ドロップダウンからモデルを選択
- ステータスバー: ステータスバーのAIモデルインジケーターをクリック
- チャットインターフェース: AIチャットパネルのモデルセレクターをクリック
APIキーの設定
クラウドプロバイダー
クラウドベースのAIモデルを使用するには、APIキーを追加するだけです:
- OpenAI: 設定 → プロバイダー → OpenAI → APIキーを入力
- Anthropic: 設定 → プロバイダー → Anthropic → APIキーを入力
- Google: 設定 → プロバイダー → Google → APIキーを入力
- その他のプロバイダー: 他のクラウドプロバイダーも同様の手順に従います
ローカルモデル
OllamaやLM Studioのようなローカルモデルの場合:
- Ollama: Ollamaが
http://127.0.0.1:11434
で実行されていることを確認します - LM Studio: LM Studioサーバーが
http://localhost:1234
で実行されていることを確認します - Sidianはローカルモデルサーバーを自動的に検出して接続します
モデル選択戦略
タスクベースの選択
- コード補完: リアルタイムの提案には高速モデル
- コード解説: 詳細な分析にはバランスモデル
- 複雑なリファクタリング: 精度を求めるなら高度なモデル
- ドキュメント作成: 技術文書作成には特化モデル
パフォーマンス最適化
- レイテンシ: インタラクティブな機能には高速なモデルを選択
- 精度: 重要なタスクには高度なモデルを使用
- コスト: パフォーマンスとAPIコストのバランスを取る
- プライバシー: 機密性の高いコードにはローカルモデルを使用
コンテキスト管理
- 短いコンテキスト: 素早い補完や提案に使用
- 中程度のコンテキスト: 関数レベルの分析に
- 長いコンテキスト: ファイルやプロジェクトレベルの理解に
- ストリーミング: リアルタイムで応答を表示するために有効化
モデルの切り替え
動的な切り替え
- タスクごと: AI機能ごとに異なるモデルを使用
- 言語ごと: 言語固有のモデル設定
- プロジェクトごと: プロジェクト固有のモデル設定
- ユーザーごと: 個々のユーザーの好み
自動フォールバック
- プライマリの障害: バックアップモデルに自動的に切り替え
- レート制限: レート制限に達した場合、代替モデルを使用
- コンテキスト制限: より大きなコンテキストウィンドウを持つモデルに切り替え
- パフォーマンスの問題: より高速なモデルにフォールバック
パフォーマンスモニタリング
モデルのメトリクス
- 応答時間: モデルの応答の平均時間
- 成功率: 成功したリクエストの割合
- トークン使用量: トークンの消費量とコストを追跡
- エラー率: 失敗したリクエストとエラーを監視
使用状況分析
- 機能の使用状況: 最も使用されているAI機能
- モデルの好み: 最も人気のあるモデルと設定
- パフォーマンストレンド: 時間経過に伴う応答時間と精度
- コスト分析: APIの使用状況と関連コスト
トラブルシューティング
よくある問題
モデルが応答しない
- APIキーの設定を確認する
- インターネット接続を確認する
- モデルの利用可能状況を確認する
- 別のモデルに切り替えてみる
応答が遅い
- より高速なモデルに切り替える
- コンテキストウィンドウのサイズを小さくする
- ネットワークの遅延を確認する
- システムリソースを監視する
応答の品質が低い
- 高度なモデルを試す
- 温度設定を調整する
- より多くのコンテキストを提供する
- プロンプトエンジニアリングを確認する
APIエラー
- APIキーの有効性を確認する
- レート制限を確認する
- クォータ使用量を監視する
- エラーメッセージを確認する
ベストプラクティス
- シンプルに始める: デフォルト設定から始め、必要に応じて調整する
- 使用状況を監視する: パフォーマンスとコストを定期的に追跡する
- モデルをテストする: ユースケースに合わせて異なるモデルを比較する
- コンテキストを最適化する: 過剰にならない範囲で関連するコンテキストを提供する
- 最新情報を保つ: 新しいモデルや改善点を常に把握する
データプライバシー
- ローカル処理: 機密性の高いコードにはローカルモデルを使用する
- データ保持: プロバイダーのデータ保持ポリシーを理解する
- コンプライアンス: 組織のポリシーへの準拠を確認する
- 監査ログ: セキュリティ目的でAIの使用状況を監視する
AIモデルの設定は、SidianのAI機能から最高のパフォーマンスを引き出すために不可欠です。様々なモデルや設定を試して、あなたの開発ニーズに最適なものを見つける時間を取ってください。