Skip to content

KI-Modellkonfiguration

Sidian unterstützt mehrere KI-Modelle und Anbieter, sodass Sie das beste Modell für Ihre spezifischen Anforderungen auswählen können. Diese Anleitung behandelt die Konfiguration, Verwaltung und Optimierung von KI-Modellen.

Verfügbare KI-Modelle

Modelltypen

  • Schnelle Modelle: Schnelle Antworten mit geringerer Genauigkeit
  • Ausgewogene Modelle: Gutes Gleichgewicht zwischen Geschwindigkeit und Genauigkeit
  • Fortgeschrittene Modelle: Höchste Genauigkeit mit längerer Verarbeitungszeit
  • Spezialisierte Modelle: Sprach- oder domänenspezifische Modelle
  • Lokale Modelle: Datenschutzorientierte Offline-Verarbeitung

Modellanbieter

  • OpenAI: GPT-5, GPT-4.1, O3, O4-mini Modelle
  • Anthropic: Claude Opus 4.1, Claude Sonnet 4, Claude 3.5 Modelle
  • Google: Gemini-Modelle
  • xAI: Grok-3, Grok-3-mini Modelle
  • DeepSeek: DeepSeek-V3 Modelle
  • Groq: Hochgeschwindigkeits-Inferenzmodelle
  • Mistral: Mistral AI Modelle
  • OpenRouter: Zugriff auf mehrere Modellanbieter
  • Microsoft Azure: Azure OpenAI Service
  • Google Vertex AI: Cloud-basierte KI-Modelle
  • Lokale Anbieter: Ollama, LM Studio, vLLM
  • OpenAI-kompatibel: Benutzerdefinierte API-Endpunkte
  • LiteLLM: Multi-Anbieter-Proxy
  • Zhipu AI: GLM-Modelle
  • Qwen: Alibaba Cloud Modelle
  • Kimi: Moonshot AI Modelle

Modellkonfiguration

Zugriff auf Modelleinstellungen

  1. Einstellungsmenü: Gehen Sie zu Einstellungen → Anbieter/Lokal → wählen Sie das Modell aus dem Dropdown-Menü
  2. Statusleiste: Klicken Sie auf den KI-Modellindikator in der Statusleiste
  3. Chat-Oberfläche: Klicken Sie auf den Modellauswähler im KI-Chat-Panel

Einrichten von API-Schlüsseln

Cloud-Anbieter

Um cloud-basierte KI-Modelle zu verwenden, fügen Sie einfach Ihren API-Schlüssel hinzu:

  • OpenAI: Gehen Sie zu Einstellungen → Anbieter → OpenAI → Geben Sie Ihren API-Schlüssel ein
  • Anthropic: Gehen Sie zu Einstellungen → Anbieter → Anthropic → Geben Sie Ihren API-Schlüssel ein
  • Google: Gehen Sie zu Einstellungen → Anbieter → Google → Geben Sie Ihren API-Schlüssel ein
  • Andere Anbieter: Folgen Sie dem gleichen Muster für jeden Cloud-Anbieter

Lokale Modelle

Für lokale Modelle wie Ollama oder LM Studio:

  • Ollama: Stellen Sie sicher, dass Ollama unter http://127.0.0.1:11434 läuft
  • LM Studio: Stellen Sie sicher, dass der LM Studio-Server unter http://localhost:1234 läuft
  • Sidian erkennt und verbindet sich automatisch mit lokalen Modellservern

Strategien zur Modellauswahl

Aufgabenbasierte Auswahl

  • Code-Vervollständigung: Schnelle Modelle für Echtzeitvorschläge
  • Code-Erklärung: Ausgewogene Modelle für detaillierte Analysen
  • Komplexes Refactoring: Fortgeschrittene Modelle für Genauigkeit
  • Dokumentation: Spezialisierte Modelle für technisches Schreiben

Leistungsoptimierung

  • Latenz: Wählen Sie schnellere Modelle für interaktive Funktionen
  • Genauigkeit: Verwenden Sie fortgeschrittene Modelle für kritische Aufgaben
  • Kosten: Balancieren Sie Leistung mit API-Kosten
  • Datenschutz: Verwenden Sie lokale Modelle für sensiblen Code

Kontextverwaltung

  • Kurzer Kontext: Für schnelle Vervollständigungen und Vorschläge verwenden
  • Mittlerer Kontext: Für Analysen auf Funktionsebene
  • Langer Kontext: Für das Verständnis auf Datei- oder Projektebene
  • Streaming: Aktivieren Sie dies für die Anzeige von Antworten in Echtzeit

Modellwechsel

Dynamischer Wechsel

  • Pro Aufgabe: Verschiedene Modelle für verschiedene KI-Funktionen
  • Pro Sprache: Sprachspezifische Modellpräferenzen
  • Pro Projekt: Projektspezifische Modellkonfigurationen
  • Pro Benutzer: Individuelle Benutzerpräferenzen

Automatischer Fallback

  • Primärer Ausfall: Wechselt automatisch zum Backup-Modell
  • Ratenbegrenzung: Verwendet ein alternatives Modell bei Ratenbegrenzung
  • Kontextlimit: Wechselt zu einem Modell mit einem größeren Kontextfenster
  • Leistungsprobleme: Fallback auf ein schnelleres Modell

Leistungsüberwachung

Modellmetriken

  • Antwortzeit: Durchschnittliche Zeit für Modellantworten
  • Erfolgsrate: Prozentsatz erfolgreicher Anfragen
  • Token-Nutzung: Verfolgen Sie den Token-Verbrauch und die Kosten
  • Fehlerrate: Überwachen Sie fehlgeschlagene Anfragen und Fehler

Nutzungsanalytik

  • Funktionsnutzung: Welche KI-Funktionen am häufigsten verwendet werden
  • Modellpräferenzen: Beliebteste Modelle und Einstellungen
  • Leistungstrends: Antwortzeit und Genauigkeit im Zeitverlauf
  • Kostenanalyse: API-Nutzung und damit verbundene Kosten

Fehlerbehebung

Häufige Probleme

Modell antwortet nicht

  • Überprüfen Sie die Konfiguration des API-Schlüssels
  • Überprüfen Sie die Internetverbindung
  • Überprüfen Sie den Verfügbarkeitsstatus des Modells
  • Versuchen Sie, zu einem anderen Modell zu wechseln

Langsame Antworten

  • Wechseln Sie zu einem schnelleren Modell
  • Reduzieren Sie die Größe des Kontextfensters
  • Überprüfen Sie die Netzwerklatenz
  • Überwachen Sie die Systemressourcen

Antworten von schlechter Qualität

  • Versuchen Sie ein fortgeschrittenes Modell
  • Passen Sie die Temperatureinstellungen an
  • Geben Sie mehr Kontext an
  • Überprüfen Sie das Prompt-Engineering

API-Fehler

  • Überprüfen Sie die Gültigkeit des API-Schlüssels
  • Überprüfen Sie die Ratenbegrenzungen
  • Überwachen Sie die Quotennutzung
  • Überprüfen Sie die Fehlermeldungen

Bewährte Praktiken

  1. Einfach anfangen: Beginnen Sie mit den Standardeinstellungen und passen Sie sie bei Bedarf an
  2. Nutzung überwachen: Verfolgen Sie regelmäßig Leistung und Kosten
  3. Modelle testen: Vergleichen Sie verschiedene Modelle für Ihre Anwendungsfälle
  4. Kontext optimieren: Stellen Sie relevanten Kontext bereit, ohne zu überladen
  5. Auf dem Laufenden bleiben: Halten Sie sich über neue Modelle und Verbesserungen auf dem Laufenden

Datenschutz

  • Lokale Verarbeitung: Verwenden Sie lokale Modelle für sensiblen Code
  • Datenaufbewahrung: Verstehen Sie die Datenaufbewahrungsrichtlinien der Anbieter
  • Konformität: Stellen Sie die Einhaltung der Unternehmensrichtlinien sicher
  • Audit-Protokollierung: Überwachen Sie die KI-Nutzung zu Sicherheitszwecken

Die Konfiguration von KI-Modellen ist entscheidend, um die beste Leistung aus den KI-Funktionen von Sidian herauszuholen. Nehmen Sie sich Zeit, um mit verschiedenen Modellen und Einstellungen zu experimentieren, um herauszufinden, was für Ihre Entwicklungsanforderungen am besten funktioniert.