Configuration des Fournisseurs
aidaemon supporte trois types de fournisseurs, tous configurés dans la section [provider].
Types de Fournisseurs
google_genai (recommandé)
API native Google Generative AI. Le fournisseur recommandé — les modèles Gemini offrent d'excellentes capacités d'utilisation d'outils, des temps de réponse rapides et un accès API gratuit généreux via Google AI Studio.
[provider]
kind = "google_genai"
api_key = "AIza..."
[provider.models]
primary = "gemini-3-flash-preview"
fast = "gemini-2.5-flash-lite"
smart = "gemini-3-pro-preview"Gemini Web Grounding
Lors de l'utilisation de google_genai, aidaemon active automatiquement le grounding via Google Search. Cela permet aux modèles Gemini de rechercher sur le web dans le cadre de leurs réponses. Les modèles qui ne supportent pas le grounding avec l'appel de fonctions sont détectés automatiquement et se replient de manière élégante.
openai_compatible
Fonctionne avec toute API implémentant le format de complétion de chat OpenAI. Cela inclut OpenAI, OpenRouter, Moonshot, MiniMax, Cloudflare AI Gateway, Ollama, et bien d'autres.
[provider]
kind = "openai_compatible"
api_key = "sk-..."
base_url = "https://api.openai.com/v1"
[provider.models]
primary = "gpt-5-mini"
fast = "gpt-5-nano"
smart = "gpt-5.1"anthropic
API native Anthropic (format Messages API). Utilisez ceci pour un accès direct à Anthropic sans passer par un proxy compatible OpenAI.
[provider]
kind = "anthropic"
api_key = "sk-ant-..."
[provider.models]
primary = "claude-sonnet-4-5"
fast = "claude-haiku-4-5"
smart = "claude-opus-4-6"OpenRouter
OpenRouter donne accès à des modèles de plusieurs fournisseurs via une seule clé API et le format compatible OpenAI.
[provider]
kind = "openai_compatible"
api_key = "sk-or-..."
base_url = "https://openrouter.ai/api/v1"
[provider.models]
primary = "openai/gpt-5-mini"
fast = "mistralai/mistral-small-3.1-24b-instruct"
smart = "openai/gpt-5.1"Moonshot AI (Kimi)
Moonshot propose des modèles Kimi via une API compatible OpenAI.
[provider]
kind = "openai_compatible"
api_key = "YOUR_MOONSHOT_API_KEY"
base_url = "https://api.moonshot.ai/v1"
[provider.models]
primary = "kimi-k2.5"
fast = "kimi-k2.5"
smart = "kimi-k2.5"MiniMax
MiniMax propose un endpoint compatible OpenAI sur https://api.minimax.io/v1.
[provider]
kind = "openai_compatible"
api_key = "YOUR_MINIMAX_API_KEY"
base_url = "https://api.minimax.io/v1"
[provider.models]
primary = "MiniMax-M2.5"
fast = "MiniMax-M2.5-highspeed"
smart = "MiniMax-M2.5"Cloudflare AI Gateway
Cloudflare AI Gateway se place devant les fournisseurs upstream et expose un endpoint compatible OpenAI. Utilisez-le pour centraliser les logs, le cache, les contrôles ou les limites de débit entre plusieurs fournisseurs.
[provider]
kind = "openai_compatible"
api_key = "sk-..." # Cle du fournisseur upstream
gateway_token = "cf-gw-..." # Optionnel : mode Authenticated Gateway
base_url = "https://gateway.ai.cloudflare.com/v1/<ACCOUNT_ID>/<GATEWAY_ID>/compat"
[provider.models]
primary = "gpt-5-mini"
fast = "gpt-5-nano"
smart = "gpt-5.1"api_key (mode basique), ou ajouter gateway_token pour envoyer cf-aig-authorization en mode Authenticated Gateway.Ollama (Local)
Exécutez des modèles localement avec Ollama. Aucune clé API requise.
[provider]
kind = "openai_compatible"
api_key = "ollama"
base_url = "http://localhost:11434/v1"
[provider.models]
primary = "llama3.1"
fast = "llama3.1"
smart = "llama3.1"http://localhost:11434/api/tags.llama.cpp (Local)
Vous pouvez aussi utiliser aidaemon avec llama.cpp via llama-server en mode compatible OpenAI.
[provider]
kind = "openai_compatible"
api_key = "llama" # N importe quelle valeur si votre serveur local n impose pas d auth
base_url = "http://127.0.0.1:8080/v1"
[provider.models]
primary = "votre-modele-id"
fast = "votre-modele-id"
smart = "votre-modele-id"/v1/chat/completions est obligatoire. /v1/models est fortement recommande pour que la commande /models fonctionne. Pour la securite, aidaemon autorise HTTP uniquement vers des adresses localhost.