Anbieter-Einrichtung
aidaemon unterstützt drei Anbietertypen, alle im [provider]-Abschnitt konfiguriert.
Anbieterarten
google_genai (empfohlen)
Native Google Generative AI API. Der empfohlene Anbieter — Gemini-Modelle bieten hervorragende Tool-Use-Fähigkeiten, schnelle Antwortzeiten und großzügigen kostenlosen API-Zugang über Google AI Studio.
[provider]
kind = "google_genai"
api_key = "AIza..."
[provider.models]
primary = "gemini-3-flash-preview"
fast = "gemini-2.5-flash-lite"
smart = "gemini-3-pro-preview"Gemini Web Grounding
Bei Verwendung von google_genai aktiviert aidaemon automatisch Google Search Grounding. Dies ermöglicht es Gemini-Modellen, das Web als Teil ihrer Antworten zu durchsuchen. Modelle, die Grounding mit Function Calling nicht unterstützen, werden automatisch erkannt und fallen graceful zurück.
openai_compatible
Funktioniert mit jeder API, die das OpenAI Chat Completions-Format implementiert. Dazu gehören OpenAI, OpenRouter, Moonshot, MiniMax, Cloudflare AI Gateway, Ollama und viele andere.
[provider]
kind = "openai_compatible"
api_key = "sk-..."
base_url = "https://api.openai.com/v1"
[provider.models]
primary = "gpt-5-mini"
fast = "gpt-5-nano"
smart = "gpt-5.1"anthropic
Native Anthropic API (Messages API-Format). Verwende dies für direkten Anthropic-Zugang ohne einen OpenAI-kompatiblen Proxy.
[provider]
kind = "anthropic"
api_key = "sk-ant-..."
[provider.models]
primary = "claude-sonnet-4-5"
fast = "claude-haiku-4-5"
smart = "claude-opus-4-6"OpenRouter
OpenRouter bietet Zugang zu Modellen von mehreren Anbietern über einen einzigen API-Schlüssel und das OpenAI-kompatible Format.
[provider]
kind = "openai_compatible"
api_key = "sk-or-..."
base_url = "https://openrouter.ai/api/v1"
[provider.models]
primary = "openai/gpt-5-mini"
fast = "mistralai/mistral-small-3.1-24b-instruct"
smart = "openai/gpt-5.1"Moonshot AI (Kimi)
Moonshot bietet Kimi-Modelle über eine OpenAI-kompatible API an.
[provider]
kind = "openai_compatible"
api_key = "YOUR_MOONSHOT_API_KEY"
base_url = "https://api.moonshot.ai/v1"
[provider.models]
primary = "kimi-k2.5"
fast = "kimi-k2.5"
smart = "kimi-k2.5"MiniMax
MiniMax bietet einen OpenAI-kompatiblen Endpoint unter https://api.minimax.io/v1.
[provider]
kind = "openai_compatible"
api_key = "YOUR_MINIMAX_API_KEY"
base_url = "https://api.minimax.io/v1"
[provider.models]
primary = "MiniMax-M2.5"
fast = "MiniMax-M2.5-highspeed"
smart = "MiniMax-M2.5"Cloudflare AI Gateway
Cloudflare AI Gateway sitzt vor Upstream-Anbietern und stellt einen OpenAI-kompatiblen Endpoint bereit. Nutze das fuer zentrale Logs, Caching, Kontrollen oder Rate-Limits ueber mehrere Anbieter.
[provider]
kind = "openai_compatible"
api_key = "sk-..." # Schluessel des Upstream-Anbieters
gateway_token = "cf-gw-..." # Optional: Authenticated-Gateway-Modus
base_url = "https://gateway.ai.cloudflare.com/v1/<ACCOUNT_ID>/<GATEWAY_ID>/compat"
[provider.models]
primary = "gpt-5-mini"
fast = "gpt-5-nano"
smart = "gpt-5.1"api_key arbeiten (Basis-Modus), oder zusaetzlich gateway_token setzen, um cf-aig-authorization fuer den Authenticated-Gateway-Modus zu senden.Ollama (Lokal)
Führe Modelle lokal mit Ollama aus. Kein API-Schlüssel erforderlich.
[provider]
kind = "openai_compatible"
api_key = "ollama"
base_url = "http://localhost:11434/v1"
[provider.models]
primary = "llama3.1"
fast = "llama3.1"
smart = "llama3.1"http://localhost:11434/api/tags.llama.cpp (Lokal)
Du kannst aidaemon auch mit llama.cpp ueber llama-server im OpenAI-kompatiblen Modus betreiben.
[provider]
kind = "openai_compatible"
api_key = "llama" # Beliebiger Wert, falls dein lokaler Server keine Auth erzwingt
base_url = "http://127.0.0.1:8080/v1"
[provider.models]
primary = "dein-modell-id"
fast = "dein-modell-id"
smart = "dein-modell-id"/v1/chat/completions ist erforderlich. /v1/models wird dringend empfohlen, damit der Befehl /models funktioniert. Aus Sicherheitsgruenden erlaubt aidaemon HTTP nur zu localhost-Adressen.