Skip to content

Configuración del Modelo IA

Sidian soporta múltiples modelos y proveedores de IA, permitiéndote elegir el mejor modelo para tus necesidades específicas. Esta guía cubre cómo configurar, gestionar y optimizar modelos de IA.

Modelos de IA Disponibles

Tipos de Modelos

  • Modelos Rápidos: Respuestas rápidas con menor precisión
  • Modelos Balanceados: Buen equilibrio de velocidad y precisión
  • Modelos Avanzados: Mayor precisión con tiempo de procesamiento más largo
  • Modelos Especializados: Modelos específicos de lenguaje o dominio
  • Modelos Locales: Procesamiento offline enfocado en privacidad

Proveedores de Modelos

  • OpenAI: Modelos GPT-5, GPT-4.1, O3, O4-mini
  • Anthropic: Modelos Claude Opus 4.1, Claude Sonnet 4, Claude 3.5
  • Google: Modelos Gemini
  • xAI: Modelos Grok-3, Grok-3-mini
  • DeepSeek: Modelos DeepSeek-V3
  • Groq: Modelos de inferencia de alta velocidad
  • Mistral: Modelos Mistral AI
  • OpenRouter: Acceso a múltiples proveedores de modelos
  • Microsoft Azure: Servicio Azure OpenAI
  • Google Vertex AI: Modelos de IA basados en la nube
  • Proveedores Locales: Ollama, LM Studio, vLLM
  • Compatible con OpenAI: Endpoints de API personalizados
  • LiteLLM: Proxy multi-proveedor
  • Zhipu AI: Modelos GLM
  • Qwen: Modelos Alibaba Cloud
  • Kimi: Modelos Moonshot AI

Configuración del Modelo

Acceder a Configuraciones del Modelo

  1. Menú de Configuración: Ve a Configuración → Proveedores/Local → selecciona modelo del dropdown
  2. Barra de Estado: Haz clic en el indicador de modelo de IA en la barra de estado
  3. Interfaz de Chat: Haz clic en el selector de modelo en el panel de chat de IA

Configurar Claves API

Proveedores de Nube

Para usar modelos de IA basados en la nube, simplemente añade tu clave API:

  • OpenAI: Ve a Configuración → Proveedores → OpenAI → Ingresa tu clave API
  • Anthropic: Ve a Configuración → Proveedores → Anthropic → Ingresa tu clave API
  • Google: Ve a Configuración → Proveedores → Google → Ingresa tu clave API
  • Otros Proveedores: Sigue el mismo patrón para cualquier proveedor de nube

Modelos Locales

Para modelos locales como Ollama o LM Studio:

  • Ollama: Asegúrate de que Ollama esté ejecutándose en http://127.0.0.1:11434
  • LM Studio: Asegúrate de que el servidor LM Studio esté ejecutándose en http://localhost:1234
  • Sidian detectará y se conectará automáticamente a servidores de modelos locales

Estrategias de Selección de Modelos

Selección Basada en Tareas

  • Completado de Código: Modelos rápidos para sugerencias en tiempo real
  • Explicación de Código: Modelos balanceados para análisis detallado
  • Refactorización Compleja: Modelos avanzados para precisión
  • Documentación: Modelos especializados para escritura técnica

Optimización de Rendimiento

  • Latencia: Elige modelos más rápidos para características interactivas
  • Precisión: Usa modelos avanzados para tareas críticas
  • Costo: Equilibra rendimiento con costos de API
  • Privacidad: Usa modelos locales para código sensible

Gestión de Contexto

  • Contexto Corto: Usar para completados y sugerencias rápidas
  • Contexto Medio: Para análisis a nivel de función
  • Contexto Largo: Para comprensión a nivel de archivo o proyecto
  • Streaming: Habilitar para visualización de respuesta en tiempo real

Cambio de Modelos

Cambio Dinámico

  • Por Tarea: Diferentes modelos para diferentes características de IA
  • Por Lenguaje: Preferencias de modelo específicas del lenguaje
  • Por Proyecto: Configuraciones de modelo específicas del proyecto
  • Por Usuario: Preferencias individuales del usuario

Respaldo Automático

  • Fallo Primario: Cambiar automáticamente al modelo de respaldo
  • Limitación de Tasa: Usar modelo alternativo cuando está limitado por tasa
  • Límite de Contexto: Cambiar a modelo con ventana de contexto más grande
  • Problemas de Rendimiento: Respaldo a modelo más rápido

Monitoreo de Rendimiento

Métricas del Modelo

  • Tiempo de Respuesta: Tiempo promedio para respuestas del modelo
  • Tasa de Éxito: Porcentaje de solicitudes exitosas
  • Uso de Tokens: Rastrear consumo y costos de tokens
  • Tasa de Error: Monitorear solicitudes fallidas y errores

Análisis de Uso

  • Uso de Características: Qué características de IA se usan más
  • Preferencias de Modelo: Modelos y configuraciones más populares
  • Tendencias de Rendimiento: Tiempo de respuesta y precisión a lo largo del tiempo
  • Análisis de Costos: Uso de API y costos asociados

Solución de Problemas

Problemas Comunes

El modelo no responde

  • Verificar configuración de clave API
  • Verificar conexión a internet
  • Verificar estado de disponibilidad del modelo
  • Intentar cambiar a modelo diferente

Respuestas lentas

  • Cambiar a modelo más rápido
  • Reducir tamaño de ventana de contexto
  • Verificar latencia de red
  • Monitorear recursos del sistema

Respuestas de mala calidad

  • Intentar modelo avanzado
  • Ajustar configuraciones de temperatura
  • Proporcionar más contexto
  • Verificar ingeniería de prompts

Errores de API

  • Verificar validez de clave API
  • Verificar límites de tasa
  • Monitorear uso de cuota
  • Revisar mensajes de error

Mejores Prácticas

  1. Empezar Simple: Comenzar con configuraciones predeterminadas y ajustar según sea necesario
  2. Monitorear Uso: Rastrear rendimiento y costos regularmente
  3. Probar Modelos: Comparar diferentes modelos para tus casos de uso
  4. Optimizar Contexto: Proporcionar contexto relevante sin sobrecargar
  5. Mantenerse Actualizado: Seguir nuevos modelos y mejoras

Privacidad de Datos

  • Procesamiento Local: Usar modelos locales para código sensible
  • Retención de Datos: Entender políticas de retención de datos del proveedor
  • Cumplimiento: Asegurar cumplimiento con políticas organizacionales
  • Registro de Auditoría: Monitorear uso de IA para propósitos de seguridad

La configuración del modelo de IA es crucial para obtener el mejor rendimiento de las características de IA de Sidian. Tómate tiempo para experimentar con diferentes modelos y configuraciones para encontrar lo que funciona mejor para tus necesidades de desarrollo.