Zum Hauptinhalt springen
Tale spricht mit KI-Modellen über Anbieter — jeder Anbieter ist ein OpenAI-kompatibler API-Endpunkt (OpenAI, OpenRouter, Anthropic über OpenRouter, Google, selbst gehostetes Ollama, vLLM usw.) samt Katalog an Modell-Definitionen. Ein Anbieter legt fest, welche Modelle es gibt und wie sie genutzt werden können (Chat, Vision, Embedding, Bild-Generierung, Transkription). Admins verwalten Anbieter unter Einstellungen > KI-Anbieter im laufenden Betrieb; Nutzer sehen die resultierenden Modelle im Chat-Modell-Picker und in der Agent-Konfiguration. Tale liefert einen OpenRouter-Beispiel-Anbieter mit, der über einen einzigen API-Schlüssel Zugriff auf Modelle von OpenAI, Anthropic, Google, Mistral, Meta und anderen gibt — der schnellste Weg, einen Chat-Arbeitsbereich durchgehend lauffähig zu machen.

Anbieter in den Einstellungen verwalten

Öffne Einstellungen > KI-Anbieter. Admins können:
  • Einen Anbieter hinzufügen mit Namen, Display-Namen, Base-URL, API-Schlüssel und einem oder mehreren Modellen. Jeder Modell-Eintrag trägt eine ID (muss dem vom Endpunkt akzeptierten Namen entsprechen), einen Display-Namen, eine optionale Beschreibung und ein oder mehrere Tags.
  • Einen Anbieter bearbeiten, um Display-Namen, Beschreibung, Base-URL, API-Schlüssel, Default-Modelle pro Capability und den Modell-Katalog zu aktualisieren.
  • Einen Anbieter löschen, um ihn vollständig zu entfernen. Agents, die noch auf die Modelle des Anbieters verweisen, zeigen eine Warnung, bis du einen Ersatz auswählst.
Die in der Anbieter-Liste angezeigte Beschreibung hilft Nutzern, den Einsatzzweck zu verstehen (z. B. “OpenAI — Whisper für Speech-to-Text”). Mit Default-Modellen pro Capability legst du vorab fest, welches Modell für Chat, Vision, Embedding, Bild-Generierung und Transkription greift, wenn Nutzer keines explizit wählen.

Modell-Tags

Jedes Modell gehört zu einem oder mehreren Tags. Tags steuern, wo das Modell im Produkt auftaucht:
TagWo das Modell erscheint
chatErscheint im Chat-Modell-Selector und kann in supportedModels von Agents referenziert werden.
visionQualifiziert für Nachrichten mit Bild-Anhängen.
embeddingWird von der Wissensdatenbank für Dokument-Retrieval genutzt.
image-generationWird von Bild-Generierungs-Agents genutzt.
image-editWird von Bild-Bearbeitungs-Agents genutzt.
transcriptionTranskribiert Audio- und Video-Uploads im Chat — siehe Chat-Anhänge.
Ein einzelner Anbieter kann Tags mischen — ein OpenAI-Anbieter kann chat-, vision- und transcription-Modelle nebeneinander bereitstellen.

Modelle im Chat verfügbar machen

Anbieter legen fest, welche Modelle es gibt. Agents legen fest, auf welchen davon sie laufen dürfen. Öffne den Agent unter Agents > (Agent-Name) und ergänze Modell-IDs in der Modell-Liste; nur Modelle, die in mindestens einem Anbieter vorhanden und am Agent gelistet sind, erscheinen im Chat-Modell-Selector. Der Standard-Chat-Agent ist mit den OpenRouter-Beispiel-Modellen vorkonfiguriert. Eigene Agents starten leer — wähle die Modelle aus, die der Agent unterstützen soll. Wie sich der Selector verhält, wenn zwei Anbieter dieselbe Modell-ID definieren (und wie Pinning funktioniert), steht in der unten verlinkten Anbieter-Referenz.

Self-hosted-Instanzen: Konfiguration als Dateien

Self-hosted-Betreiber können Anbieter zusätzlich zur UI über JSON-Konfigurationsdateien verwalten — nützlich für Infrastructure-as-Code-Workflows, Bulk-Änderungen oder Deployments, in denen die UI nicht erreichbar ist. UI und Dateien bleiben synchron; das Speichern aus Einstellungen > KI-Anbieter schreibt dasselbe JSON. Für das Datei-Schema, mitgelieferte Beispiel-Anbieter, SOPS-verschlüsselte Secrets, selbst gehostete Inferenz-Backends (Ollama, vLLM, LocalAI, faster-whisper-server), Docker-Host-Networking und die Syntax zum Anbieter-Pinning siehe KI-Anbieter — Konfigurationsreferenz.
Last modified on April 21, 2026