chat/completions peut parler à Tale en changeant deux valeurs : l’URL de base et la clé API. Ce tutoriel enchaîne un appel cURL minimal, le même en Python avec le client officiel openai, puis le passage au streaming. La référence complète est dans la Référence API.
Il te faut un accès Developer pour créer des clés API. Il te faut aussi un agent que tu peux adresser par slug — prends celui de Construire ton premier agent end-to-end, ou n’importe quel agent par défaut.
Étape 1 — Créer une clé API
Va dans Paramètres > Clés API et clique Créer. Donne-lui un nom explicite (cli-dev-laptop), copie le token — il commence par tale_ et n’est affiché qu’une fois — et mets-le dans ton gestionnaire de mots de passe ou ton env shell.
Étape 2 — Lister les agents disponibles
Chaque requête a besoin d’un champmodel ; les valeurs valides sont les slugs d’agent retournés par GET /api/v1/models.
product-support.
Étape 3 — Envoyer une requête chat sans streaming
Sans streaming, c’est au plus simple : une requête, une réponse. À utiliser quand tu veux juste le texte final.Étape 4 — Passer au streaming
Le streaming commence à afficher des tokens dès que le modèle les produit — meilleure UX en CLI et en chat, coût total identique. Metsstream=True :
Étape 5 — Réutiliser un thread de conversation
Par défaut, chaque requête est un tour isolé. Pour garder une conversation vivante entre requêtes, envoie l’en-tête optionnelX-Thread-Id avec une valeur que tu contrôles. Le même thread ID résout la même conversation dans l’UI Tale, donc les utilisateurs peuvent reprendre où ton script s’est arrêté.
Dépannage
- 401 Unauthorized — clé
tale_révoquée, mal saisie, ou préfixeBearermanquant. - 404 Not Found sur
/chat/completions— l’URL de base n’a pas le suffixe/api/v1. - 400 model not found — le slug d’agent n’existe pas ou est mal orthographié ; revérifie
GET /models.
Ensuite
- Brancher le même appel dans une automatisation : Déclencher une automatisation via webhook.
- Utiliser le tool calling depuis ton client : Référence API — Tool calling.