EN·ES·DE·PT·FR
⌘K

Configuração de Provedor

aidaemon suporta três tipos de provedor, todos configurados na seção [provider].

Tipos de Provedor

google_genai (recomendado)

API nativa do Google Generative AI. O provedor recomendado — modelos Gemini oferecem excelentes capacidades de uso de ferramentas, tempos de resposta rápidos e acesso generoso ao nível gratuito da API via Google AI Studio.

toml
[provider]
kind = "google_genai"
api_key = "AIza..."

[provider.models]
primary = "gemini-3-flash-preview"
fast = "gemini-2.5-flash-lite"
smart = "gemini-3-pro-preview"
Configuração Recomendada
O Google AI Studio fornece uma chave de API gratuita com limites de taxa generosos. Modelos Gemini têm suporte nativo a chamadas de ferramentas, web grounding e funcionam bem com o loop agêntico do aidaemon.

Gemini Web Grounding

Ao usar google_genai, o aidaemon habilita automaticamente o grounding do Google Search. Isso permite que modelos Gemini pesquisem na web como parte de suas respostas. Modelos que não suportam grounding com chamadas de função são detectados automaticamente e fazem fallback graciosamente.

openai_compatible

Funciona com qualquer API que implemente o formato de chat completions do OpenAI. Isso inclui OpenAI, OpenRouter, Moonshot, MiniMax, Cloudflare AI Gateway, Ollama e muitos outros.

toml
[provider]
kind = "openai_compatible"
api_key = "sk-..."
base_url = "https://api.openai.com/v1"

[provider.models]
primary = "gpt-5-mini"
fast = "gpt-5-nano"
smart = "gpt-5.1"

anthropic

API nativa da Anthropic (formato Messages API). Use para acesso direto à Anthropic sem passar por um proxy compatível com OpenAI.

toml
[provider]
kind = "anthropic"
api_key = "sk-ant-..."

[provider.models]
primary = "claude-sonnet-4-5"
fast = "claude-haiku-4-5"
smart = "claude-opus-4-6"

OpenRouter

OpenRouter fornece acesso a modelos de múltiplos provedores através de uma única chave de API e o formato compatível com OpenAI.

toml
[provider]
kind = "openai_compatible"
api_key = "sk-or-..."
base_url = "https://openrouter.ai/api/v1"

[provider.models]
primary = "openai/gpt-5-mini"
fast = "mistralai/mistral-small-3.1-24b-instruct"
smart = "openai/gpt-5.1"

Moonshot AI (Kimi)

Moonshot oferece modelos Kimi por meio de uma API compatível com OpenAI.

toml
[provider]
kind = "openai_compatible"
api_key = "YOUR_MOONSHOT_API_KEY"
base_url = "https://api.moonshot.ai/v1"

[provider.models]
primary = "kimi-k2.5"
fast = "kimi-k2.5"
smart = "kimi-k2.5"

MiniMax

MiniMax oferece um endpoint compatível com OpenAI em https://api.minimax.io/v1.

toml
[provider]
kind = "openai_compatible"
api_key = "YOUR_MINIMAX_API_KEY"
base_url = "https://api.minimax.io/v1"

[provider.models]
primary = "MiniMax-M2.5"
fast = "MiniMax-M2.5-highspeed"
smart = "MiniMax-M2.5"

Cloudflare AI Gateway

Cloudflare AI Gateway fica na frente dos provedores upstream e expõe um endpoint compatível com OpenAI. Use isso para logs centralizados, cache, controles ou limites de taxa entre vários provedores.

toml
[provider]
kind = "openai_compatible"
api_key = "sk-..." # Chave do provedor upstream
gateway_token = "cf-gw-..." # Opcional: modo Authenticated Gateway
base_url = "https://gateway.ai.cloudflare.com/v1/<ACCOUNT_ID>/<GATEWAY_ID>/compat"

[provider.models]
primary = "gpt-5-mini"
fast = "gpt-5-nano"
smart = "gpt-5.1"
Modos de Autenticacao da Cloudflare
Voce pode operar apenas com api_key (modo basico), ou adicionar gateway_token para enviar cf-aig-authorization no modo Authenticated Gateway.

Ollama (Local)

Execute modelos localmente com Ollama. Nenhuma chave de API necessária.

toml
[provider]
kind = "openai_compatible"
api_key = "ollama"
base_url = "http://localhost:11434/v1"

[provider.models]
primary = "llama3.1"
fast = "llama3.1"
smart = "llama3.1"
Descoberta do Ollama
O assistente de configuração descobre automaticamente os modelos Ollama disponíveis consultando http://localhost:11434/api/tags.

llama.cpp (Local)

Voce tambem pode usar o aidaemon com llama.cpp via llama-server em modo compativel com OpenAI.

toml
[provider]
kind = "openai_compatible"
api_key = "llama" # Qualquer valor se seu servidor local nao exigir auth
base_url = "http://127.0.0.1:8080/v1"

[provider.models]
primary = "seu-modelo-id"
fast = "seu-modelo-id"
smart = "seu-modelo-id"
Requisitos do llama.cpp
/v1/chat/completions e obrigatorio. /v1/models e altamente recomendado para o comando /models funcionar. Por seguranca, o aidaemon so permite HTTP para enderecos localhost.