Начало работы

Быстрый старт

Два способа начать: через API (2 минуты) или на выделенном сервере (10 минут).

Продукт №1 — AI API
1

Установите SDK

Terminal
pip install openai

Используем стандартный OpenAI Python SDK. Также работает с Node.js, curl и любым HTTP-клиентом.

2

Получите API-ключ

Зарегистрируйтесь и получите API-ключ в дашборде. При регистрации — бонус на баланс.

API-ключ выглядит так: sk-42g-xxxxxxxxxxxx

Храните ключ в переменной окружения OPENAI_API_KEY — не коммитьте в код.

3

Отправьте первый запрос

Python

quickstart.py
1from openai import OpenAI
2
3client = OpenAI(
4 base_url="https://api.42gpu.ru/v1",
5 api_key="sk-..." # ваш API-ключ из дашборда
6)
7
8response = client.chat.completions.create(
9 model="qwen3.5-397b",
10 messages=[
11 {"role": "system", "content": "Ты полезный ассистент."},
12 {"role": "user", "content": "Объясни квантовые вычисления простыми словами."}
13 ],
14 max_tokens=512
15)
16
17print(response.choices[0].message.content)

cURL

Terminal
curl https://api.42gpu.ru/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer sk-..." \
  -d '{
    "model": "qwen3.5-397b",
    "messages": [
      {"role": "user", "content": "Привет! Как дела?"}
    ],
    "max_tokens": 256
  }'

Node.js

index.ts
1import OpenAI from 'openai';
2
3const client = new OpenAI({
4 baseURL: 'https://api.42gpu.ru/v1',
5 apiKey: 'sk-...',
6});
7
8const response = await client.chat.completions.create({
9 model: 'deepseek-v3',
10 messages: [{ role: 'user', content: 'Привет!' }],
11});
12
13console.log(response.choices[0].message.content);
4

Streaming

streaming.py
1from openai import OpenAI
2
3client = OpenAI(
4 base_url="https://api.42gpu.ru/v1",
5 api_key="sk-..."
6)
7
8stream = client.chat.completions.create(
9 model="local/qwen3.5-397b",
10 messages=[{"role": "user", "content": "Напиши haiku про GPU"}],
11 stream=True
12)
13
14for chunk in stream:
15 if chunk.choices[0].delta.content:
16 print(chunk.choices[0].delta.content, end="")

Доступные модели

modelНазваниеInput ₽/1KOutput ₽/1KКонтекст
qwen3.5-397bQwen 3.5 397B0.060.321M

Полный список: GET https://api.42gpu.ru/v1/models

Продукт №2 — Выделенный GPU-сервер

Полный root-доступ к серверу 8x A100 80GB SXM4. Запускайте любые модели, обучайте, fine-tune.

1

Подключитесь по SSH

Terminal
# Подключение к серверу
ssh root@your-server-ip

# Проверка GPU
nvidia-smi

Предустановлено

Ubuntu 22.04, CUDA 12.x, PyTorch 2.x, vLLM, Docker, Python 3.11

2

Запустите модель через vLLM

Terminal
# vLLM уже предустановлен. Запуск модели:
python -m vllm.entrypoints.openai.api_server \
  --model deepseek-ai/DeepSeek-V3 \
  --tensor-parallel-size 8 \
  --max-model-len 32768 \
  --port 8000

Хотите обсудить конфигурацию? Напишите в Telegram — подберём оптимальную настройку под вашу задачу.

Следующие шаги