KI-Modellkonfiguration
Sidian unterstützt mehrere KI-Modelle und Anbieter, sodass Sie das beste Modell für Ihre spezifischen Anforderungen auswählen können. Diese Anleitung behandelt die Konfiguration, Verwaltung und Optimierung von KI-Modellen.
Verfügbare KI-Modelle
Modelltypen
- Schnelle Modelle: Schnelle Antworten mit geringerer Genauigkeit
- Ausgewogene Modelle: Gutes Gleichgewicht zwischen Geschwindigkeit und Genauigkeit
- Fortgeschrittene Modelle: Höchste Genauigkeit mit längerer Verarbeitungszeit
- Spezialisierte Modelle: Sprach- oder domänenspezifische Modelle
- Lokale Modelle: Datenschutzorientierte Offline-Verarbeitung
Modellanbieter
- OpenAI: GPT-5, GPT-4.1, O3, O4-mini Modelle
- Anthropic: Claude Opus 4.1, Claude Sonnet 4, Claude 3.5 Modelle
- Google: Gemini-Modelle
- xAI: Grok-3, Grok-3-mini Modelle
- DeepSeek: DeepSeek-V3 Modelle
- Groq: Hochgeschwindigkeits-Inferenzmodelle
- Mistral: Mistral AI Modelle
- OpenRouter: Zugriff auf mehrere Modellanbieter
- Microsoft Azure: Azure OpenAI Service
- Google Vertex AI: Cloud-basierte KI-Modelle
- Lokale Anbieter: Ollama, LM Studio, vLLM
- OpenAI-kompatibel: Benutzerdefinierte API-Endpunkte
- LiteLLM: Multi-Anbieter-Proxy
- Zhipu AI: GLM-Modelle
- Qwen: Alibaba Cloud Modelle
- Kimi: Moonshot AI Modelle
Modellkonfiguration
Zugriff auf Modelleinstellungen
- Einstellungsmenü: Gehen Sie zu Einstellungen → Anbieter/Lokal → wählen Sie das Modell aus dem Dropdown-Menü
- Statusleiste: Klicken Sie auf den KI-Modellindikator in der Statusleiste
- Chat-Oberfläche: Klicken Sie auf den Modellauswähler im KI-Chat-Panel
Einrichten von API-Schlüsseln
Cloud-Anbieter
Um cloud-basierte KI-Modelle zu verwenden, fügen Sie einfach Ihren API-Schlüssel hinzu:
- OpenAI: Gehen Sie zu Einstellungen → Anbieter → OpenAI → Geben Sie Ihren API-Schlüssel ein
- Anthropic: Gehen Sie zu Einstellungen → Anbieter → Anthropic → Geben Sie Ihren API-Schlüssel ein
- Google: Gehen Sie zu Einstellungen → Anbieter → Google → Geben Sie Ihren API-Schlüssel ein
- Andere Anbieter: Folgen Sie dem gleichen Muster für jeden Cloud-Anbieter
Lokale Modelle
Für lokale Modelle wie Ollama oder LM Studio:
- Ollama: Stellen Sie sicher, dass Ollama unter
http://127.0.0.1:11434
läuft - LM Studio: Stellen Sie sicher, dass der LM Studio-Server unter
http://localhost:1234
läuft - Sidian erkennt und verbindet sich automatisch mit lokalen Modellservern
Strategien zur Modellauswahl
Aufgabenbasierte Auswahl
- Code-Vervollständigung: Schnelle Modelle für Echtzeitvorschläge
- Code-Erklärung: Ausgewogene Modelle für detaillierte Analysen
- Komplexes Refactoring: Fortgeschrittene Modelle für Genauigkeit
- Dokumentation: Spezialisierte Modelle für technisches Schreiben
Leistungsoptimierung
- Latenz: Wählen Sie schnellere Modelle für interaktive Funktionen
- Genauigkeit: Verwenden Sie fortgeschrittene Modelle für kritische Aufgaben
- Kosten: Balancieren Sie Leistung mit API-Kosten
- Datenschutz: Verwenden Sie lokale Modelle für sensiblen Code
Kontextverwaltung
- Kurzer Kontext: Für schnelle Vervollständigungen und Vorschläge verwenden
- Mittlerer Kontext: Für Analysen auf Funktionsebene
- Langer Kontext: Für das Verständnis auf Datei- oder Projektebene
- Streaming: Aktivieren Sie dies für die Anzeige von Antworten in Echtzeit
Modellwechsel
Dynamischer Wechsel
- Pro Aufgabe: Verschiedene Modelle für verschiedene KI-Funktionen
- Pro Sprache: Sprachspezifische Modellpräferenzen
- Pro Projekt: Projektspezifische Modellkonfigurationen
- Pro Benutzer: Individuelle Benutzerpräferenzen
Automatischer Fallback
- Primärer Ausfall: Wechselt automatisch zum Backup-Modell
- Ratenbegrenzung: Verwendet ein alternatives Modell bei Ratenbegrenzung
- Kontextlimit: Wechselt zu einem Modell mit einem größeren Kontextfenster
- Leistungsprobleme: Fallback auf ein schnelleres Modell
Leistungsüberwachung
Modellmetriken
- Antwortzeit: Durchschnittliche Zeit für Modellantworten
- Erfolgsrate: Prozentsatz erfolgreicher Anfragen
- Token-Nutzung: Verfolgen Sie den Token-Verbrauch und die Kosten
- Fehlerrate: Überwachen Sie fehlgeschlagene Anfragen und Fehler
Nutzungsanalytik
- Funktionsnutzung: Welche KI-Funktionen am häufigsten verwendet werden
- Modellpräferenzen: Beliebteste Modelle und Einstellungen
- Leistungstrends: Antwortzeit und Genauigkeit im Zeitverlauf
- Kostenanalyse: API-Nutzung und damit verbundene Kosten
Fehlerbehebung
Häufige Probleme
Modell antwortet nicht
- Überprüfen Sie die Konfiguration des API-Schlüssels
- Überprüfen Sie die Internetverbindung
- Überprüfen Sie den Verfügbarkeitsstatus des Modells
- Versuchen Sie, zu einem anderen Modell zu wechseln
Langsame Antworten
- Wechseln Sie zu einem schnelleren Modell
- Reduzieren Sie die Größe des Kontextfensters
- Überprüfen Sie die Netzwerklatenz
- Überwachen Sie die Systemressourcen
Antworten von schlechter Qualität
- Versuchen Sie ein fortgeschrittenes Modell
- Passen Sie die Temperatureinstellungen an
- Geben Sie mehr Kontext an
- Überprüfen Sie das Prompt-Engineering
API-Fehler
- Überprüfen Sie die Gültigkeit des API-Schlüssels
- Überprüfen Sie die Ratenbegrenzungen
- Überwachen Sie die Quotennutzung
- Überprüfen Sie die Fehlermeldungen
Bewährte Praktiken
- Einfach anfangen: Beginnen Sie mit den Standardeinstellungen und passen Sie sie bei Bedarf an
- Nutzung überwachen: Verfolgen Sie regelmäßig Leistung und Kosten
- Modelle testen: Vergleichen Sie verschiedene Modelle für Ihre Anwendungsfälle
- Kontext optimieren: Stellen Sie relevanten Kontext bereit, ohne zu überladen
- Auf dem Laufenden bleiben: Halten Sie sich über neue Modelle und Verbesserungen auf dem Laufenden
Datenschutz
- Lokale Verarbeitung: Verwenden Sie lokale Modelle für sensiblen Code
- Datenaufbewahrung: Verstehen Sie die Datenaufbewahrungsrichtlinien der Anbieter
- Konformität: Stellen Sie die Einhaltung der Unternehmensrichtlinien sicher
- Audit-Protokollierung: Überwachen Sie die KI-Nutzung zu Sicherheitszwecken
Die Konfiguration von KI-Modellen ist entscheidend, um die beste Leistung aus den KI-Funktionen von Sidian herauszuholen. Nehmen Sie sich Zeit, um mit verschiedenen Modellen und Einstellungen zu experimentieren, um herauszufinden, was für Ihre Entwicklungsanforderungen am besten funktioniert.