Начало работы
Быстрый старт
Два способа начать: через API (2 минуты) или на выделенном сервере (10 минут).
Продукт №1 — AI API
1
Установите SDK
Terminal
pip install openaiИспользуем стандартный OpenAI Python SDK. Также работает с Node.js, curl и любым HTTP-клиентом.
2
Получите API-ключ
Зарегистрируйтесь и получите API-ключ в дашборде. При регистрации — бонус на баланс.
API-ключ выглядит так: sk-42g-xxxxxxxxxxxx
Храните ключ в переменной окружения OPENAI_API_KEY — не коммитьте в код.
3
Отправьте первый запрос
Python
quickstart.py
1from openai import OpenAI23client = OpenAI(4 base_url="https://api.42gpu.ru/v1",5 api_key="sk-..." # ваш API-ключ из дашборда6)78response = client.chat.completions.create(9 model="qwen3.5-397b",10 messages=[11 {"role": "system", "content": "Ты полезный ассистент."},12 {"role": "user", "content": "Объясни квантовые вычисления простыми словами."}13 ],14 max_tokens=51215)1617print(response.choices[0].message.content)cURL
Terminal
curl https://api.42gpu.ru/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-..." \
-d '{
"model": "qwen3.5-397b",
"messages": [
{"role": "user", "content": "Привет! Как дела?"}
],
"max_tokens": 256
}'Node.js
index.ts
1import OpenAI from 'openai';23const client = new OpenAI({4 baseURL: 'https://api.42gpu.ru/v1',5 apiKey: 'sk-...',6});78const response = await client.chat.completions.create({9 model: 'deepseek-v3',10 messages: [{ role: 'user', content: 'Привет!' }],11});1213console.log(response.choices[0].message.content);4
Streaming
streaming.py
1from openai import OpenAI23client = OpenAI(4 base_url="https://api.42gpu.ru/v1",5 api_key="sk-..."6)78stream = client.chat.completions.create(9 model="local/qwen3.5-397b",10 messages=[{"role": "user", "content": "Напиши haiku про GPU"}],11 stream=True12)1314for chunk in stream:15 if chunk.choices[0].delta.content:16 print(chunk.choices[0].delta.content, end="")Доступные модели
| model | Название | Input ₽/1K | Output ₽/1K | Контекст |
|---|---|---|---|---|
qwen3.5-397b | Qwen 3.5 397B | 0.06 | 0.32 | 1M |
Полный список: GET https://api.42gpu.ru/v1/models
Продукт №2 — Выделенный GPU-сервер
Полный root-доступ к серверу 8x A100 80GB SXM4. Запускайте любые модели, обучайте, fine-tune.
1
Подключитесь по SSH
Terminal
# Подключение к серверу
ssh root@your-server-ip
# Проверка GPU
nvidia-smiПредустановлено
Ubuntu 22.04, CUDA 12.x, PyTorch 2.x, vLLM, Docker, Python 3.11
2
Запустите модель через vLLM
Terminal
# vLLM уже предустановлен. Запуск модели:
python -m vllm.entrypoints.openai.api_server \
--model deepseek-ai/DeepSeek-V3 \
--tensor-parallel-size 8 \
--max-model-len 32768 \
--port 8000Хотите обсудить конфигурацию? Напишите в Telegram — подберём оптимальную настройку под вашу задачу.