Configuração de Provedor
aidaemon suporta três tipos de provedor, todos configurados na seção [provider].
Tipos de Provedor
google_genai (recomendado)
API nativa do Google Generative AI. O provedor recomendado — modelos Gemini oferecem excelentes capacidades de uso de ferramentas, tempos de resposta rápidos e acesso generoso ao nível gratuito da API via Google AI Studio.
[provider]
kind = "google_genai"
api_key = "AIza..."
[provider.models]
primary = "gemini-3-flash-preview"
fast = "gemini-2.5-flash-lite"
smart = "gemini-3-pro-preview"Gemini Web Grounding
Ao usar google_genai, o aidaemon habilita automaticamente o grounding do Google Search. Isso permite que modelos Gemini pesquisem na web como parte de suas respostas. Modelos que não suportam grounding com chamadas de função são detectados automaticamente e fazem fallback graciosamente.
openai_compatible
Funciona com qualquer API que implemente o formato de chat completions do OpenAI. Isso inclui OpenAI, OpenRouter, Moonshot, MiniMax, Cloudflare AI Gateway, Ollama e muitos outros.
[provider]
kind = "openai_compatible"
api_key = "sk-..."
base_url = "https://api.openai.com/v1"
[provider.models]
primary = "gpt-5-mini"
fast = "gpt-5-nano"
smart = "gpt-5.1"anthropic
API nativa da Anthropic (formato Messages API). Use para acesso direto à Anthropic sem passar por um proxy compatível com OpenAI.
[provider]
kind = "anthropic"
api_key = "sk-ant-..."
[provider.models]
primary = "claude-sonnet-4-5"
fast = "claude-haiku-4-5"
smart = "claude-opus-4-6"OpenRouter
OpenRouter fornece acesso a modelos de múltiplos provedores através de uma única chave de API e o formato compatível com OpenAI.
[provider]
kind = "openai_compatible"
api_key = "sk-or-..."
base_url = "https://openrouter.ai/api/v1"
[provider.models]
primary = "openai/gpt-5-mini"
fast = "mistralai/mistral-small-3.1-24b-instruct"
smart = "openai/gpt-5.1"Moonshot AI (Kimi)
Moonshot oferece modelos Kimi por meio de uma API compatível com OpenAI.
[provider]
kind = "openai_compatible"
api_key = "YOUR_MOONSHOT_API_KEY"
base_url = "https://api.moonshot.ai/v1"
[provider.models]
primary = "kimi-k2.5"
fast = "kimi-k2.5"
smart = "kimi-k2.5"MiniMax
MiniMax oferece um endpoint compatível com OpenAI em https://api.minimax.io/v1.
[provider]
kind = "openai_compatible"
api_key = "YOUR_MINIMAX_API_KEY"
base_url = "https://api.minimax.io/v1"
[provider.models]
primary = "MiniMax-M2.5"
fast = "MiniMax-M2.5-highspeed"
smart = "MiniMax-M2.5"Cloudflare AI Gateway
Cloudflare AI Gateway fica na frente dos provedores upstream e expõe um endpoint compatível com OpenAI. Use isso para logs centralizados, cache, controles ou limites de taxa entre vários provedores.
[provider]
kind = "openai_compatible"
api_key = "sk-..." # Chave do provedor upstream
gateway_token = "cf-gw-..." # Opcional: modo Authenticated Gateway
base_url = "https://gateway.ai.cloudflare.com/v1/<ACCOUNT_ID>/<GATEWAY_ID>/compat"
[provider.models]
primary = "gpt-5-mini"
fast = "gpt-5-nano"
smart = "gpt-5.1"api_key (modo basico), ou adicionar gateway_token para enviar cf-aig-authorization no modo Authenticated Gateway.Ollama (Local)
Execute modelos localmente com Ollama. Nenhuma chave de API necessária.
[provider]
kind = "openai_compatible"
api_key = "ollama"
base_url = "http://localhost:11434/v1"
[provider.models]
primary = "llama3.1"
fast = "llama3.1"
smart = "llama3.1"http://localhost:11434/api/tags.llama.cpp (Local)
Voce tambem pode usar o aidaemon com llama.cpp via llama-server em modo compativel com OpenAI.
[provider]
kind = "openai_compatible"
api_key = "llama" # Qualquer valor se seu servidor local nao exigir auth
base_url = "http://127.0.0.1:8080/v1"
[provider.models]
primary = "seu-modelo-id"
fast = "seu-modelo-id"
smart = "seu-modelo-id"/v1/chat/completions e obrigatorio. /v1/models e altamente recomendado para o comando /models funcionar. Por seguranca, o aidaemon so permite HTTP para enderecos localhost.