Configuration des Modèles d'IA
Sidian prend en charge plusieurs modèles et fournisseurs d'IA, vous permettant de choisir le meilleur modèle pour vos besoins spécifiques. Ce guide explique comment configurer, gérer et optimiser les modèles d'IA.
Modèles d'IA Disponibles
Types de Modèles
- Modèles Rapides : Réponses rapides avec une précision moindre
- Modèles Équilibrés : Bon équilibre entre vitesse et précision
- Modèles Avancés : Précision la plus élevée avec un temps de traitement plus long
- Modèles Spécialisés : Modèles spécifiques à un langage ou à un domaine
- Modèles Locaux : Traitement hors ligne axé sur la confidentialité
Fournisseurs de Modèles
- OpenAI : Modèles GPT-5, GPT-4.1, O3, O4-mini
- Anthropic : Modèles Claude Opus 4.1, Claude Sonnet 4, Claude 3.5
- Google : Modèles Gemini
- xAI : Modèles Grok-3, Grok-3-mini
- DeepSeek : Modèles DeepSeek-V3
- Groq : Modèles d'inférence à haute vitesse
- Mistral : Modèles Mistral AI
- OpenRouter : Accès à plusieurs fournisseurs de modèles
- Microsoft Azure : Azure OpenAI Service
- Google Vertex AI : Modèles d'IA basés sur le cloud
- Fournisseurs Locaux : Ollama, LM Studio, vLLM
- Compatible OpenAI : Points de terminaison d'API personnalisés
- LiteLLM : Proxy multi-fournisseurs
- Zhipu AI : Modèles GLM
- Qwen : Modèles Alibaba Cloud
- Kimi : Modèles Moonshot AI
Configuration des Modèles
Accéder aux Paramètres des Modèles
- Menu Paramètres : Allez dans Paramètres → Fournisseurs/Local → sélectionnez le modèle dans le menu déroulant
- Barre de Statut : Cliquez sur l'indicateur de modèle d'IA dans la barre de statut
- Interface de Chat : Cliquez sur le sélecteur de modèle dans le panneau de chat IA
Configuration des Clés d'API
Fournisseurs Cloud
Pour utiliser les modèles d'IA basés sur le cloud, ajoutez simplement votre clé d'API :
- OpenAI : Allez dans Paramètres → Fournisseurs → OpenAI → Entrez votre clé d'API
- Anthropic : Allez dans Paramètres → Fournisseurs → Anthropic → Entrez votre clé d'API
- Google : Allez dans Paramètres → Fournisseurs → Google → Entrez votre clé d'API
- Autres Fournisseurs : Suivez le même schéma pour tout fournisseur cloud
Modèles Locaux
Pour les modèles locaux comme Ollama ou LM Studio :
- Ollama : Assurez-vous qu'Ollama est en cours d'exécution à
http://127.0.0.1:11434
- LM Studio : Assurez-vous que le serveur LM Studio est en cours d'exécution à
http://localhost:1234
- Sidian détectera et se connectera automatiquement aux serveurs de modèles locaux
Stratégies de Sélection de Modèles
Sélection Basée sur la Tâche
- Complétion de Code : Modèles rapides pour des suggestions en temps réel
- Explication de Code : Modèles équilibrés pour une analyse détaillée
- Refactorisation Complexe : Modèles avancés pour la précision
- Documentation : Modèles spécialisés pour la rédaction technique
Optimisation des Performances
- Latence : Choisissez des modèles plus rapides pour les fonctionnalités interactives
- Précision : Utilisez des modèles avancés pour les tâches critiques
- Coût : Équilibrez les performances avec les coûts de l'API
- Confidentialité : Utilisez des modèles locaux pour le code sensible
Gestion du Contexte
- Contexte Court : Utilisez pour des complétions et suggestions rapides
- Contexte Moyen : Pour une analyse au niveau de la fonction
- Contexte Long : Pour une compréhension au niveau du fichier ou du projet
- Streaming : Activez pour un affichage de la réponse en temps réel
Changement de Modèle
Changement Dynamique
- Par Tâche : Différents modèles pour différentes fonctionnalités d'IA
- Par Langage : Préférences de modèles spécifiques au langage
- Par Projet : Configurations de modèles spécifiques au projet
- Par Utilisateur : Préférences individuelles de l'utilisateur
Basculement Automatique
- Échec du Primaire : Bascule automatiquement vers un modèle de secours
- Limitation de Débit : Utilise un modèle alternatif en cas de limitation de débit
- Limite de Contexte : Bascule vers un modèle avec une fenêtre de contexte plus grande
- Problèmes de Performance : Bascule vers un modèle plus rapide
Surveillance des Performances
Métriques du Modèle
- Temps de Réponse : Temps moyen pour les réponses du modèle
- Taux de Succès : Pourcentage de requêtes réussies
- Utilisation des Tokens : Suivez la consommation de tokens et les coûts
- Taux d'Erreur : Surveillez les requêtes échouées et les erreurs
Analyse de l'Utilisation
- Utilisation des Fonctionnalités : Quelles fonctionnalités d'IA sont les plus utilisées
- Préférences de Modèles : Modèles et paramètres les plus populaires
- Tendances de Performance : Temps de réponse et précision dans le temps
- Analyse des Coûts : Utilisation de l'API et coûts associés
Dépannage
Problèmes Courants
Le modèle ne répond pas
- Vérifiez la configuration de la clé d'API
- Vérifiez la connexion Internet
- Vérifiez le statut de disponibilité du modèle
- Essayez de passer à un modèle différent
Réponses lentes
- Passez à un modèle plus rapide
- Réduisez la taille de la fenêtre de contexte
- Vérifiez la latence du réseau
- Surveillez les ressources système
Réponses de mauvaise qualité
- Essayez un modèle avancé
- Ajustez les paramètres de température
- Fournissez plus de contexte
- Vérifiez l'ingénierie des invites
Erreurs d'API
- Vérifiez la validité de la clé d'API
- Vérifiez les limites de débit
- Surveillez l'utilisation des quotas
- Examinez les messages d'erreur
Bonnes Pratiques
- Commencez Simplement : Commencez avec les paramètres par défaut et ajustez au besoin
- Surveillez l'Utilisation : Suivez régulièrement les performances et les coûts
- Testez les Modèles : Comparez différents modèles pour vos cas d'utilisation
- Optimisez le Contexte : Fournissez un contexte pertinent sans surcharger
- Restez à Jour : Tenez-vous au courant des nouveaux modèles et des améliorations
Confidentialité des Données
- Traitement Local : Utilisez des modèles locaux pour le code sensible
- Rétention des Données : Comprenez les politiques de rétention des données des fournisseurs
- Conformité : Assurez-vous de la conformité avec les politiques de l'organisation
- Journalisation d'Audit : Surveillez l'utilisation de l'IA à des fins de sécurité
La configuration des modèles d'IA est cruciale pour obtenir les meilleures performances des fonctionnalités d'IA de Sidian. Prenez le temps d'expérimenter avec différents modèles et paramètres pour trouver ce qui fonctionne le mieux pour vos besoins de développement.