Schritt 1 — Die lokale Runtime starten
Für Ollama auf demselben Host wie Tale:http://localhost:11434. Prüfe die Erreichbarkeit:
localhost auf den Host — auf Linux nutze http://host.docker.internal:11434 mit explizitem Docker-Extra-Host oder die LAN-IP des Hosts. Siehe Self-hosted-Konfiguration für die Netzwerk-Optionen.
Schritt 2 — Den Anbieter in Tale hinzufügen
Navigiere zu Einstellungen > KI-Anbieter und klicke Anbieter hinzufügen. Fülle aus:| Feld | Wert |
|---|---|
| Name | ollama-local (Slug, intern verwendet) |
| Anzeigename | Ollama (lokal) |
| Base-URL | http://host.docker.internal:11434/v1 |
| API-Schlüssel | Beliebiger nicht-leerer Wert — Ollama auth’t nicht |
| Feld | Wert |
|---|---|
| ID | llama3.3 (muss exakt Ollama entsprechen) |
| Anzeigename | LLaMA 3.3 |
| Tags | chat |
http://vllm.internal:8000/v1), und die Modell-ID muss dem --served-model-name-Flag entsprechen, mit dem du vLLM gestartet hast.
Schritt 3 — Das Modell einem Agent zuordnen
Öffne Agents, wähle den Agent, der auf dem lokalen Modell laufen soll, und öffne sein JSON unterTALE_CONFIG_DIR/agents/<slug>.json. Füge die Modell-ID in supportedModels hinzu:
Schritt 4 — Aus dem Chat testen
Öffne Chat, wähle den Agent und frag irgendetwas. In Einstellungen > Usage Analytics oder der Konversationshistorie des Agents prüfst du, dass die Anfrage vonollama-local bedient wurde — die Modell-ID steht in den Thread-Metadaten. Die Latenz ist höher als bei einem gehosteten Frontier-Modell; das ist auf den meisten Maschinen erwartet.
Wenn Tale auf einen anderen Anbieter zurückfällt, passt die Modell-ID entweder nicht zur Ollama-Liste, oder supportedModels enthält noch einen Frontier-Modell-Eintrag, der Priorität hat — entfernen oder umsortieren.
Schritt 5 — In die Muss-Tutorials einbinden
Beide Admin-Muss-Tutorials profitieren von einem lokalen Anbieter:- Office Agents — das Add-in trifft Tale; Tale routet zum lokalen Modell. Keine Änderung auf Add-in-Seite. Siehe Word- & Excel-Add-in.
- Meeting-Transkription — Meetily läuft Whisper bereits lokal; ein lokaler Anbieter schließt die Kette, sodass auch das Zusammenfassungs-LLM lokal ist. Siehe Meeting-Transkription.
Troubleshooting
- Tale erreicht Ollama aus Docker nicht —
localhostim Tale-Container ist nicht der Host. Nutzehost.docker.internal(Docker Desktop), die Host-LAN-IP oder hänge Ollama und Tale ins selbe Docker-Netzwerk. - 404 auf Modell — Modell-ID ist case-sensitive und muss dem entsprechen, was
ollama listausgibt. - Leere oder sehr kurze Antworten — das Default-Kontextfenster von Ollama ist klein. Ziehe eine Variante mit größerem Kontext oder überschreibe
num_ctximModelfiledes Modells. - Verschlüsselter API-Schlüssel verlangt — wenn du Anbieter-Dateien direkt editierst, muss die API-Schlüssel-Datei SOPS-verschlüsselt sein. Den Schlüssel über die UI zu setzen übernimmt die Verschlüsselung; siehe KI-Anbieter — SOPS-verschlüsselte Secrets.