Configuración del Modelo IA
Sidian soporta múltiples modelos y proveedores de IA, permitiéndote elegir el mejor modelo para tus necesidades específicas. Esta guía cubre cómo configurar, gestionar y optimizar modelos de IA.
Modelos de IA Disponibles
Tipos de Modelos
- Modelos Rápidos: Respuestas rápidas con menor precisión
- Modelos Balanceados: Buen equilibrio de velocidad y precisión
- Modelos Avanzados: Mayor precisión con tiempo de procesamiento más largo
- Modelos Especializados: Modelos específicos de lenguaje o dominio
- Modelos Locales: Procesamiento offline enfocado en privacidad
Proveedores de Modelos
- OpenAI: Modelos GPT-5, GPT-4.1, O3, O4-mini
- Anthropic: Modelos Claude Opus 4.1, Claude Sonnet 4, Claude 3.5
- Google: Modelos Gemini
- xAI: Modelos Grok-3, Grok-3-mini
- DeepSeek: Modelos DeepSeek-V3
- Groq: Modelos de inferencia de alta velocidad
- Mistral: Modelos Mistral AI
- OpenRouter: Acceso a múltiples proveedores de modelos
- Microsoft Azure: Servicio Azure OpenAI
- Google Vertex AI: Modelos de IA basados en la nube
- Proveedores Locales: Ollama, LM Studio, vLLM
- Compatible con OpenAI: Endpoints de API personalizados
- LiteLLM: Proxy multi-proveedor
- Zhipu AI: Modelos GLM
- Qwen: Modelos Alibaba Cloud
- Kimi: Modelos Moonshot AI
Configuración del Modelo
Acceder a Configuraciones del Modelo
- Menú de Configuración: Ve a Configuración → Proveedores/Local → selecciona modelo del dropdown
- Barra de Estado: Haz clic en el indicador de modelo de IA en la barra de estado
- Interfaz de Chat: Haz clic en el selector de modelo en el panel de chat de IA
Configurar Claves API
Proveedores de Nube
Para usar modelos de IA basados en la nube, simplemente añade tu clave API:
- OpenAI: Ve a Configuración → Proveedores → OpenAI → Ingresa tu clave API
- Anthropic: Ve a Configuración → Proveedores → Anthropic → Ingresa tu clave API
- Google: Ve a Configuración → Proveedores → Google → Ingresa tu clave API
- Otros Proveedores: Sigue el mismo patrón para cualquier proveedor de nube
Modelos Locales
Para modelos locales como Ollama o LM Studio:
- Ollama: Asegúrate de que Ollama esté ejecutándose en
http://127.0.0.1:11434
- LM Studio: Asegúrate de que el servidor LM Studio esté ejecutándose en
http://localhost:1234
- Sidian detectará y se conectará automáticamente a servidores de modelos locales
Estrategias de Selección de Modelos
Selección Basada en Tareas
- Completado de Código: Modelos rápidos para sugerencias en tiempo real
- Explicación de Código: Modelos balanceados para análisis detallado
- Refactorización Compleja: Modelos avanzados para precisión
- Documentación: Modelos especializados para escritura técnica
Optimización de Rendimiento
- Latencia: Elige modelos más rápidos para características interactivas
- Precisión: Usa modelos avanzados para tareas críticas
- Costo: Equilibra rendimiento con costos de API
- Privacidad: Usa modelos locales para código sensible
Gestión de Contexto
- Contexto Corto: Usar para completados y sugerencias rápidas
- Contexto Medio: Para análisis a nivel de función
- Contexto Largo: Para comprensión a nivel de archivo o proyecto
- Streaming: Habilitar para visualización de respuesta en tiempo real
Cambio de Modelos
Cambio Dinámico
- Por Tarea: Diferentes modelos para diferentes características de IA
- Por Lenguaje: Preferencias de modelo específicas del lenguaje
- Por Proyecto: Configuraciones de modelo específicas del proyecto
- Por Usuario: Preferencias individuales del usuario
Respaldo Automático
- Fallo Primario: Cambiar automáticamente al modelo de respaldo
- Limitación de Tasa: Usar modelo alternativo cuando está limitado por tasa
- Límite de Contexto: Cambiar a modelo con ventana de contexto más grande
- Problemas de Rendimiento: Respaldo a modelo más rápido
Monitoreo de Rendimiento
Métricas del Modelo
- Tiempo de Respuesta: Tiempo promedio para respuestas del modelo
- Tasa de Éxito: Porcentaje de solicitudes exitosas
- Uso de Tokens: Rastrear consumo y costos de tokens
- Tasa de Error: Monitorear solicitudes fallidas y errores
Análisis de Uso
- Uso de Características: Qué características de IA se usan más
- Preferencias de Modelo: Modelos y configuraciones más populares
- Tendencias de Rendimiento: Tiempo de respuesta y precisión a lo largo del tiempo
- Análisis de Costos: Uso de API y costos asociados
Solución de Problemas
Problemas Comunes
El modelo no responde
- Verificar configuración de clave API
- Verificar conexión a internet
- Verificar estado de disponibilidad del modelo
- Intentar cambiar a modelo diferente
Respuestas lentas
- Cambiar a modelo más rápido
- Reducir tamaño de ventana de contexto
- Verificar latencia de red
- Monitorear recursos del sistema
Respuestas de mala calidad
- Intentar modelo avanzado
- Ajustar configuraciones de temperatura
- Proporcionar más contexto
- Verificar ingeniería de prompts
Errores de API
- Verificar validez de clave API
- Verificar límites de tasa
- Monitorear uso de cuota
- Revisar mensajes de error
Mejores Prácticas
- Empezar Simple: Comenzar con configuraciones predeterminadas y ajustar según sea necesario
- Monitorear Uso: Rastrear rendimiento y costos regularmente
- Probar Modelos: Comparar diferentes modelos para tus casos de uso
- Optimizar Contexto: Proporcionar contexto relevante sin sobrecargar
- Mantenerse Actualizado: Seguir nuevos modelos y mejoras
Privacidad de Datos
- Procesamiento Local: Usar modelos locales para código sensible
- Retención de Datos: Entender políticas de retención de datos del proveedor
- Cumplimiento: Asegurar cumplimiento con políticas organizacionales
- Registro de Auditoría: Monitorear uso de IA para propósitos de seguridad
La configuración del modelo de IA es crucial para obtener el mejor rendimiento de las características de IA de Sidian. Tómate tiempo para experimentar con diferentes modelos y configuraciones para encontrar lo que funciona mejor para tus necesidades de desarrollo.