EN·ES·DE·PT·FR
⌘K

Anbieter-Einrichtung

aidaemon unterstützt drei Anbietertypen, alle im [provider]-Abschnitt konfiguriert.

Anbieterarten

google_genai (empfohlen)

Native Google Generative AI API. Der empfohlene Anbieter — Gemini-Modelle bieten hervorragende Tool-Use-Fähigkeiten, schnelle Antwortzeiten und großzügigen kostenlosen API-Zugang über Google AI Studio.

toml
[provider]
kind = "google_genai"
api_key = "AIza..."

[provider.models]
primary = "gemini-3-flash-preview"
fast = "gemini-2.5-flash-lite"
smart = "gemini-3-pro-preview"
Empfohlene Einrichtung
Google AI Studio bietet einen kostenlosen API-Schlüssel mit großzügigen Ratenlimits. Gemini-Modelle haben nativen Tool-Calling-Support, Web-Grounding und funktionieren gut mit aidaemons agentischer Schleife.

Gemini Web Grounding

Bei Verwendung von google_genai aktiviert aidaemon automatisch Google Search Grounding. Dies ermöglicht es Gemini-Modellen, das Web als Teil ihrer Antworten zu durchsuchen. Modelle, die Grounding mit Function Calling nicht unterstützen, werden automatisch erkannt und fallen graceful zurück.

openai_compatible

Funktioniert mit jeder API, die das OpenAI Chat Completions-Format implementiert. Dazu gehören OpenAI, OpenRouter, Moonshot, MiniMax, Cloudflare AI Gateway, Ollama und viele andere.

toml
[provider]
kind = "openai_compatible"
api_key = "sk-..."
base_url = "https://api.openai.com/v1"

[provider.models]
primary = "gpt-5-mini"
fast = "gpt-5-nano"
smart = "gpt-5.1"

anthropic

Native Anthropic API (Messages API-Format). Verwende dies für direkten Anthropic-Zugang ohne einen OpenAI-kompatiblen Proxy.

toml
[provider]
kind = "anthropic"
api_key = "sk-ant-..."

[provider.models]
primary = "claude-sonnet-4-5"
fast = "claude-haiku-4-5"
smart = "claude-opus-4-6"

OpenRouter

OpenRouter bietet Zugang zu Modellen von mehreren Anbietern über einen einzigen API-Schlüssel und das OpenAI-kompatible Format.

toml
[provider]
kind = "openai_compatible"
api_key = "sk-or-..."
base_url = "https://openrouter.ai/api/v1"

[provider.models]
primary = "openai/gpt-5-mini"
fast = "mistralai/mistral-small-3.1-24b-instruct"
smart = "openai/gpt-5.1"

Moonshot AI (Kimi)

Moonshot bietet Kimi-Modelle über eine OpenAI-kompatible API an.

toml
[provider]
kind = "openai_compatible"
api_key = "YOUR_MOONSHOT_API_KEY"
base_url = "https://api.moonshot.ai/v1"

[provider.models]
primary = "kimi-k2.5"
fast = "kimi-k2.5"
smart = "kimi-k2.5"

MiniMax

MiniMax bietet einen OpenAI-kompatiblen Endpoint unter https://api.minimax.io/v1.

toml
[provider]
kind = "openai_compatible"
api_key = "YOUR_MINIMAX_API_KEY"
base_url = "https://api.minimax.io/v1"

[provider.models]
primary = "MiniMax-M2.5"
fast = "MiniMax-M2.5-highspeed"
smart = "MiniMax-M2.5"

Cloudflare AI Gateway

Cloudflare AI Gateway sitzt vor Upstream-Anbietern und stellt einen OpenAI-kompatiblen Endpoint bereit. Nutze das fuer zentrale Logs, Caching, Kontrollen oder Rate-Limits ueber mehrere Anbieter.

toml
[provider]
kind = "openai_compatible"
api_key = "sk-..." # Schluessel des Upstream-Anbieters
gateway_token = "cf-gw-..." # Optional: Authenticated-Gateway-Modus
base_url = "https://gateway.ai.cloudflare.com/v1/<ACCOUNT_ID>/<GATEWAY_ID>/compat"

[provider.models]
primary = "gpt-5-mini"
fast = "gpt-5-nano"
smart = "gpt-5.1"
Cloudflare-Authentifizierungsmodi
Du kannst nur mit api_key arbeiten (Basis-Modus), oder zusaetzlich gateway_token setzen, um cf-aig-authorization fuer den Authenticated-Gateway-Modus zu senden.

Ollama (Lokal)

Führe Modelle lokal mit Ollama aus. Kein API-Schlüssel erforderlich.

toml
[provider]
kind = "openai_compatible"
api_key = "ollama"
base_url = "http://localhost:11434/v1"

[provider.models]
primary = "llama3.1"
fast = "llama3.1"
smart = "llama3.1"
Ollama-Erkennung
Der Einrichtungsassistent erkennt verfügbare Ollama-Modelle automatisch durch Abfrage von http://localhost:11434/api/tags.

llama.cpp (Lokal)

Du kannst aidaemon auch mit llama.cpp ueber llama-server im OpenAI-kompatiblen Modus betreiben.

toml
[provider]
kind = "openai_compatible"
api_key = "llama" # Beliebiger Wert, falls dein lokaler Server keine Auth erzwingt
base_url = "http://127.0.0.1:8080/v1"

[provider.models]
primary = "dein-modell-id"
fast = "dein-modell-id"
smart = "dein-modell-id"
llama.cpp-Anforderungen
/v1/chat/completions ist erforderlich. /v1/models wird dringend empfohlen, damit der Befehl /models funktioniert. Aus Sicherheitsgruenden erlaubt aidaemon HTTP nur zu localhost-Adressen.