Documentation API interactive
Tous les services Python ont une UI Swagger pour explorer et tester l’API :| Service | URL Swagger UI | OpenAPI JSON |
|---|---|---|
| RAG | http://localhost:8001/docs | http://localhost:8001/openapi.json |
| Crawler | http://localhost:8002/docs | http://localhost:8002/openapi.json |
API RAG
L’API RAG gère l’indexation et la recherche des documents. C’est le moteur derrière la base de connaissances.Téléverser un document
sync=true attend la fin avant de répondre.
Vérifier les statuts de documents
queued, running, completed, failed.
Chercher dans la base
file_ids est requis et cible la recherche sur des documents précis.
Supprimer un document
Récupérer le contenu d’un document
Comparer des documents
API Crawler
Enregistrer un site à crawler
scan_interval en secondes. Minimum 60.
Récupérer le contenu d’une page
Infos sur un site
Déréférencer un site
Lister les URLs d’un site
API Platform
Le service Platform expose une API publique sur/api/v1/* pour l’accès programmatique à tes données. Authentification par clé API depuis Paramètres > Clés API.
Chat completions compatibles OpenAI
La plateforme fournit une interface entièrement compatible avec l’API OpenAI Chat Completions. Tout client ou SDK supportant OpenAI (Python, Node, curl, LiteLLM, etc.) peut se connecter en pointantbase_url vers ton instance Tale.
Quick start
Authentification
Toutes les requêtes exigent un bearer token dans l’en-têteAuthorization :
En-têtes
| En-tête | Requis | Description |
|---|---|---|
Authorization | Oui | Bearer <api-key>. |
X-Organization-Slug | Non | slug d’organisation. Résolu automatiquement si le user n’appartient qu’à une. |
X-Thread-Id | Non | réutiliser un fil de conversation entre requêtes. |
Endpoints
POST /api/v1/chat/completions
Envoie un message de chat et reçoit une réponse. Supporte streaming et tool calling. Body de requête :| Champ | Type | Description |
|---|---|---|
model | string | Requis. slug d’agent (ex. chat-agent). |
messages | array | Requis. messages de conversation avec role et content. |
stream | boolean | activer le streaming SSE. Défaut : false. |
temperature | number | température de sampling (0–2). |
max_tokens | number | tokens max à générer. |
top_p | number | paramètre de nucleus sampling. |
frequency_penalty | number | pénalise les tokens répétés. |
presence_penalty | number | pénalise les tokens déjà présents. |
stop | string ou array | séquences d’arrêt. |
response_format | object | {"type": "json_object"} pour mode JSON. |
tools | array | définitions d’outils pour tool calling côté client. |
tool_choice | string ou object | "auto", "required", "none" ou {"type":"function","function":{"name":"..."}}. |
- Mode agent (sans
tools) : l’agent utilise ses outils serveurs préconfigurés (RAG, recherche web, etc.) et les exécute automatiquement. La réponse contient le texte final. - Mode outils client (
toolsfournis) : seuls les outils définis par le client sont disponibles. Le modèle renvoie destool_callsà exécuter côté client. Renvoie les résultats via des messagesrole: "tool".