Configuracion de Proveedores
aidaemon soporta tres tipos de proveedores, todos configurados en la seccion [provider].
Tipos de Proveedores
google_genai (recomendado)
API nativa de Google Generative AI. El proveedor recomendado — los modelos Gemini ofrecen excelentes capacidades de uso de herramientas, tiempos de respuesta rapidos y acceso generoso al nivel gratuito de la API via Google AI Studio.
[provider]
kind = "google_genai"
api_key = "AIza..."
[provider.models]
primary = "gemini-3-flash-preview"
fast = "gemini-2.5-flash-lite"
smart = "gemini-3-pro-preview"Gemini Web Grounding
Al usar google_genai, aidaemon habilita automaticamente Google Search grounding. Esto permite a los modelos Gemini buscar en la web como parte de sus respuestas. Los modelos que no soportan grounding con llamada a funciones se detectan automaticamente y recurren a un comportamiento alternativo de forma transparente.
openai_compatible
Funciona con cualquier API que implemente el formato de chat completions de OpenAI. Esto incluye OpenAI, OpenRouter, Moonshot, MiniMax, Cloudflare AI Gateway, Ollama y muchos otros.
[provider]
kind = "openai_compatible"
api_key = "sk-..."
base_url = "https://api.openai.com/v1"
[provider.models]
primary = "gpt-5-mini"
fast = "gpt-5-nano"
smart = "gpt-5.1"anthropic
API nativa de Anthropic (formato Messages API). Usa esto para acceso directo a Anthropic sin pasar por un proxy compatible con OpenAI.
[provider]
kind = "anthropic"
api_key = "sk-ant-..."
[provider.models]
primary = "claude-sonnet-4-5"
fast = "claude-haiku-4-5"
smart = "claude-opus-4-6"OpenRouter
OpenRouter proporciona acceso a modelos de multiples proveedores a traves de una sola clave API y el formato compatible con OpenAI.
[provider]
kind = "openai_compatible"
api_key = "sk-or-..."
base_url = "https://openrouter.ai/api/v1"
[provider.models]
primary = "openai/gpt-5-mini"
fast = "mistralai/mistral-small-3.1-24b-instruct"
smart = "openai/gpt-5.1"Moonshot AI (Kimi)
Moonshot ofrece modelos Kimi a traves de una API compatible con OpenAI.
[provider]
kind = "openai_compatible"
api_key = "YOUR_MOONSHOT_API_KEY"
base_url = "https://api.moonshot.ai/v1"
[provider.models]
primary = "kimi-k2.5"
fast = "kimi-k2.5"
smart = "kimi-k2.5"MiniMax
MiniMax ofrece un endpoint compatible con OpenAI en https://api.minimax.io/v1.
[provider]
kind = "openai_compatible"
api_key = "YOUR_MINIMAX_API_KEY"
base_url = "https://api.minimax.io/v1"
[provider.models]
primary = "MiniMax-M2.5"
fast = "MiniMax-M2.5-highspeed"
smart = "MiniMax-M2.5"Cloudflare AI Gateway
Cloudflare AI Gateway se coloca delante de proveedores upstream y expone un endpoint compatible con OpenAI. Usalo si quieres logs centralizados, cache, controles o limites de tasa entre multiples proveedores.
[provider]
kind = "openai_compatible"
api_key = "sk-..." # Clave del proveedor upstream
gateway_token = "cf-gw-..." # Opcional: modo Authenticated Gateway
base_url = "https://gateway.ai.cloudflare.com/v1/<ACCOUNT_ID>/<GATEWAY_ID>/compat"
[provider.models]
primary = "gpt-5-mini"
fast = "gpt-5-nano"
smart = "gpt-5.1"api_key (modo basico), o agregar gateway_token para enviar cf-aig-authorization en modo Authenticated Gateway.Ollama (Local)
Ejecuta modelos localmente con Ollama. No se requiere clave API.
[provider]
kind = "openai_compatible"
api_key = "ollama"
base_url = "http://localhost:11434/v1"
[provider.models]
primary = "llama3.1"
fast = "llama3.1"
smart = "llama3.1"http://localhost:11434/api/tags.llama.cpp (Local)
Tambien puedes usar aidaemon con llama.cpp mediante llama-server en modo compatible con OpenAI.
[provider]
kind = "openai_compatible"
api_key = "llama" # Cualquier valor si tu servidor local no exige auth
base_url = "http://127.0.0.1:8080/v1"
[provider.models]
primary = "tu-modelo-id"
fast = "tu-modelo-id"
smart = "tu-modelo-id"/v1/chat/completions es obligatorio. /v1/models es muy recomendable para que funcione el comando /models. Por seguridad, en aidaemon el HTTP solo se permite hacia direcciones localhost.