Étape 1 — Lancer le runtime local
Pour Ollama sur le même hôte que Tale :http://localhost:11434. Vérifie qu’il répond :
localhost — sur Linux, utilise http://host.docker.internal:11434 avec un extra-host Docker explicite, ou l’IP LAN de l’hôte. Voir Configuration self-hébergée pour les options réseau.
Étape 2 — Ajouter le fournisseur dans Tale
Va dans Paramètres > Fournisseurs IA et clique Ajouter un fournisseur. Remplis :| Champ | Valeur |
|---|---|
| Nom | ollama-local (slug, usage interne) |
| Nom d’affichage | Ollama (local) |
| URL de base | http://host.docker.internal:11434/v1 |
| Clé API | N’importe quelle valeur non vide — Ollama n’auth pas |
| Champ | Valeur |
|---|---|
| ID | llama3.3 (doit correspondre exactement à Ollama) |
| Nom d’affichage | LLaMA 3.3 |
| Tags | chat |
http://vllm.internal:8000/v1), et l’ID du modèle doit correspondre au flag --served-model-name avec lequel tu as démarré vLLM.
Étape 3 — Ajouter le modèle à un agent
Ouvre Agents, choisis l’agent qui doit tourner sur le modèle local, et ouvre son JSON dansTALE_CONFIG_DIR/agents/<slug>.json. Ajoute l’ID du modèle à supportedModels :
Étape 4 — Tester depuis le chat
Ouvre Chat, choisis l’agent et pose n’importe quelle question. Dans Paramètres > Usage analytics ou dans l’historique de conversations de l’agent, vérifie que la requête a été servie parollama-local — l’ID du modèle apparaît dans les métadonnées du thread. La latence sera plus haute qu’un modèle frontier hébergé ; c’est attendu sur la plupart des machines.
Si Tale retombe sur un autre fournisseur, soit l’ID du modèle ne correspond pas à la liste Ollama, soit supportedModels contient encore une entrée de modèle frontier qui prend le pas — à retirer ou réordonner.
Étape 5 — Brancher dans les tutoriels must-have
Les deux must-haves Admin profitent d’un fournisseur local :- Office Agents — l’add-in frappe Tale ; Tale route vers le modèle local. Aucun changement côté add-in. Voir Add-in Word & Excel.
- Transcription de réunions — Meetily fait déjà tourner Whisper en local ; ajouter un fournisseur local boucle la boucle pour que le LLM de résumé soit lui aussi local. Voir Transcription de réunions.
Dépannage
- Tale ne joint pas Ollama depuis Docker —
localhostdans le conteneur Tale n’est pas l’hôte. Utilisehost.docker.internal(Docker Desktop), l’IP LAN de l’hôte, ou mets Ollama et Tale sur le même réseau Docker. - 404 sur modèle — l’ID du modèle est sensible à la casse et doit correspondre à ce que
ollama listaffiche. - Réponses vides ou très courtes — la fenêtre de contexte Ollama par défaut est petite. Tire une variante avec plus de contexte, ou override
num_ctxdans leModelfiledu modèle. - Clé API chiffrée requise — si tu édites les fichiers de fournisseurs directement, le fichier de clé API doit être chiffré avec SOPS. Définir la clé via l’UI gère le chiffrement ; voir Fournisseurs IA — Secrets chiffrés par SOPS.