EN·ES·DE·PT·FR
⌘K

Configuration des Fournisseurs

aidaemon supporte trois types de fournisseurs, tous configurés dans la section [provider].

Types de Fournisseurs

google_genai (recommandé)

API native Google Generative AI. Le fournisseur recommandé — les modèles Gemini offrent d'excellentes capacités d'utilisation d'outils, des temps de réponse rapides et un accès API gratuit généreux via Google AI Studio.

toml
[provider]
kind = "google_genai"
api_key = "AIza..."

[provider.models]
primary = "gemini-3-flash-preview"
fast = "gemini-2.5-flash-lite"
smart = "gemini-3-pro-preview"
Configuration Recommandée
Google AI Studio fournit une clé API gratuite avec des limites de débit généreuses. Les modèles Gemini disposent d'un support natif d'appel d'outils, du web grounding, et fonctionnent bien avec la boucle agentique d'aidaemon.

Gemini Web Grounding

Lors de l'utilisation de google_genai, aidaemon active automatiquement le grounding via Google Search. Cela permet aux modèles Gemini de rechercher sur le web dans le cadre de leurs réponses. Les modèles qui ne supportent pas le grounding avec l'appel de fonctions sont détectés automatiquement et se replient de manière élégante.

openai_compatible

Fonctionne avec toute API implémentant le format de complétion de chat OpenAI. Cela inclut OpenAI, OpenRouter, Moonshot, MiniMax, Cloudflare AI Gateway, Ollama, et bien d'autres.

toml
[provider]
kind = "openai_compatible"
api_key = "sk-..."
base_url = "https://api.openai.com/v1"

[provider.models]
primary = "gpt-5-mini"
fast = "gpt-5-nano"
smart = "gpt-5.1"

anthropic

API native Anthropic (format Messages API). Utilisez ceci pour un accès direct à Anthropic sans passer par un proxy compatible OpenAI.

toml
[provider]
kind = "anthropic"
api_key = "sk-ant-..."

[provider.models]
primary = "claude-sonnet-4-5"
fast = "claude-haiku-4-5"
smart = "claude-opus-4-6"

OpenRouter

OpenRouter donne accès à des modèles de plusieurs fournisseurs via une seule clé API et le format compatible OpenAI.

toml
[provider]
kind = "openai_compatible"
api_key = "sk-or-..."
base_url = "https://openrouter.ai/api/v1"

[provider.models]
primary = "openai/gpt-5-mini"
fast = "mistralai/mistral-small-3.1-24b-instruct"
smart = "openai/gpt-5.1"

Moonshot AI (Kimi)

Moonshot propose des modèles Kimi via une API compatible OpenAI.

toml
[provider]
kind = "openai_compatible"
api_key = "YOUR_MOONSHOT_API_KEY"
base_url = "https://api.moonshot.ai/v1"

[provider.models]
primary = "kimi-k2.5"
fast = "kimi-k2.5"
smart = "kimi-k2.5"

MiniMax

MiniMax propose un endpoint compatible OpenAI sur https://api.minimax.io/v1.

toml
[provider]
kind = "openai_compatible"
api_key = "YOUR_MINIMAX_API_KEY"
base_url = "https://api.minimax.io/v1"

[provider.models]
primary = "MiniMax-M2.5"
fast = "MiniMax-M2.5-highspeed"
smart = "MiniMax-M2.5"

Cloudflare AI Gateway

Cloudflare AI Gateway se place devant les fournisseurs upstream et expose un endpoint compatible OpenAI. Utilisez-le pour centraliser les logs, le cache, les contrôles ou les limites de débit entre plusieurs fournisseurs.

toml
[provider]
kind = "openai_compatible"
api_key = "sk-..." # Cle du fournisseur upstream
gateway_token = "cf-gw-..." # Optionnel : mode Authenticated Gateway
base_url = "https://gateway.ai.cloudflare.com/v1/<ACCOUNT_ID>/<GATEWAY_ID>/compat"

[provider.models]
primary = "gpt-5-mini"
fast = "gpt-5-nano"
smart = "gpt-5.1"
Modes d Authentification Cloudflare
Vous pouvez fonctionner uniquement avec api_key (mode basique), ou ajouter gateway_token pour envoyer cf-aig-authorization en mode Authenticated Gateway.

Ollama (Local)

Exécutez des modèles localement avec Ollama. Aucune clé API requise.

toml
[provider]
kind = "openai_compatible"
api_key = "ollama"
base_url = "http://localhost:11434/v1"

[provider.models]
primary = "llama3.1"
fast = "llama3.1"
smart = "llama3.1"
Découverte Ollama
L'assistant de configuration découvre automatiquement les modèles Ollama disponibles en interrogeant http://localhost:11434/api/tags.

llama.cpp (Local)

Vous pouvez aussi utiliser aidaemon avec llama.cpp via llama-server en mode compatible OpenAI.

toml
[provider]
kind = "openai_compatible"
api_key = "llama" # N importe quelle valeur si votre serveur local n impose pas d auth
base_url = "http://127.0.0.1:8080/v1"

[provider.models]
primary = "votre-modele-id"
fast = "votre-modele-id"
smart = "votre-modele-id"
Exigences llama.cpp
/v1/chat/completions est obligatoire. /v1/models est fortement recommande pour que la commande /models fonctionne. Pour la securite, aidaemon autorise HTTP uniquement vers des adresses localhost.