GET /v1/models#
Список всех доступных моделей в OpenAI-формате.
http
GET /v1/models HTTP/1.1
Host: api.ml-router.su
Authorization: Bearer orb_live_…
Response#
json
{
"object": "list",
"data": [
{
"id": "openai/gpt-4o-mini",
"object": "model",
"context_length": 128000
},
{
"id": "anthropic/claude-3-5-sonnet",
"object": "model",
"context_length": 200000
}
]
}
Возвращаются только метаданные модели (id, контекст, описание) — без
цен. Цены за 1M токенов — в GET /v1/prices.
Финальная сумма списания за каждый запрос — в usage.cost ответа.
Примеры#
python
models = client.models.list()
for m in models.data:
print(m.id)
bash
curl https://api.ml-router.su/v1/models \
-H "Authorization: Bearer orb_live_…" | jq '.data[].id'
Группировка по провайдерам#
Идентификатор модели — <provider>/<name>, например:
| Провайдер | Примеры |
|---|---|
openai/ |
gpt-4o, gpt-4o-mini, o1 |
anthropic/ |
claude-3-5-sonnet, claude-3-opus |
google/ |
gemini-2.0-flash, gemini-pro |
meta-llama/ |
llama-3.3-70b-instruct |
mistralai/ |
mistral-large, mistral-nemo |
qwen/ |
qwen-2.5-72b-instruct |
deepseek/ |
deepseek-chat, deepseek-coder |
И ещё десятки. Полный список — динамический, бери из /v1/models.
Кэширование на твоей стороне#
Список меняется редко — кэшируй на 1-6 часов.
```python import time
_cache: dict[str, object] = {"data": None, "ts": 0.0}
def get_models(ttl: float = 3600.0): now = time.time() if _cache["data"] is None or now - _cache["ts"] > ttl: _cache["data"] = client.models.list() _cache["ts"] = now return _cache["data"] ```