Суверенное GPU-облако в России

8× A100 80GB SXM4
1 000 000 ₽/мес, выделенный сервер

NVLink + NVSwitch между 8 картами, 640 GB VRAM, root SSH. Полный контроль над железом. Оплата в рублях, документы для бухгалтерии.

152-ФЗSLA 99.9%ЦОД в России (Tier III)Данные в РФОплата в рубляхДоговор и закрывающие документы

Спецификация сервера

FLAGSHIP

8x A100 80GB SXM4

Полный выделенный сервер

Помесячно
1 000 000
Почасовая
4 200₽/ч
GPU8x NVIDIA A100 80GB SXM4
VRAM640 GB HBM2e
InterconnectNVLink 3.0 + NVSwitch (600 GB/s)
CPU2x Intel Xeon Gold 6338 (64 ядра)
RAM1 TB DDR4-3200 ECC
Storage2x 3.84 TB NVMe SSD
Network25 GbE
ДоступRoot SSH

1x A100 80GB

Одна карта для inference и fine-tuning

Помесячно
320 000
Почасовая
1 350₽/ч
GPUNVIDIA A100 80GB SXM4
VRAM80 GB HBM2e
FP16312 TFLOPS
ДоступRoot SSH
СофтUbuntu + CUDA 12 + PyTorch + vLLM
IPСтатический
Минимальная аренда — 1 день1 час бесплатно при регистрации

Сравнение провайдеров

Почему компании переходят на 42gpu

42gpuYandex CloudSelectelЗарубеж (AWS/GCP)
8x A100 80GB / мес1 000 000 ₽~2 000 000+ ₽~1 500 000+ ₽Недоступно из РФ
1x A100 80GB / мес320 000 ₽~600 000+ ₽~400 000+ ₽Недоступно из РФ
Root-доступ
NVLink (SXM4)
Данные в РФ
Оплата в рублях
Риск отключения
Vendor lock-in
Бесплатный тест1 час

Преимущества

01

Суверенность

Сервер в российском ДЦ. Данные не покидают РФ. 152-ФЗ. Никаких санкционных рисков — оборудование в нашей собственности.

02

Фиксированная цена в рублях

1 000 000 ₽ за 8x A100 в месяц — без наценок за конвертацию валюты, без скрытых платежей. Закрывающие документы для юрлиц.

03

Root-доступ

Полный SSH-доступ к серверу. Устанавливайте любой софт: vLLM, TensorRT, Docker, собственные пайплайны.

04

NVLink

8x A100 SXM4 с NVSwitch — 600 GB/s между GPU. Критично для обучения LLM, multi-GPU inference и tensor parallelism.

Калькулятор стоимости

Выберите конфигурацию и срок — увидите итоговую стоимость в рублях

30 дней
1 день30 дней90 дней
Итого за 30 дней
320 000
320 000 ₽/мес × 1.0
Помесячный тариф
320 000
Почасовой тариф
972 000

Производительность

Бенчмарки A100 80GB — реальные цифры

Производительность inference на vLLM. Те же модели в Yandex Cloud стоят в 2 раза дороже — при идентичном железе.

МодельGPUThroughputLatency (TTFT)Конкурентов обслуживает
Llama 3.3 70B1x A100~2 400 tok/s~80 ms50+ запросов
Qwen2.5-72B1x A100~2 200 tok/s~90 ms40+ запросов
DeepSeek-V3.28x A100~4 800 tok/s~120 ms100+ запросов
Mistral Large 38x A100~5 200 tok/s~100 ms100+ запросов
Llama 4 Maverick8x A100~4 000 tok/s~150 ms80+ запросов

* Бенчмарки на vLLM с continuous batching, FP16/BF16, NVLink 3.0. Реальная производительность зависит от длины контекста и параметров генерации.

Совместимо сPyTorchvLLMCUDA 12TensorRTDockerSGLangDeepSpeedJAX

Модели

Запускайте SOTA-модели уровня GPT-5 — на своём сервере

С января 2026 ЕС запретил предоставление AI-сервисов в Россию. Open-source модели на своём GPU — единственный легальный путь к frontier AI.

DeepSeek V3.2

OPEN
685B MoE → 37B active

Сильная reasoning-модель. MIT-лицензия. Свободная коммерческая лицензия.

8x A100 — FP16

GLM-5

MOE
744B MoE → 40B active

MoE-модель от Zhipu AI. Обучена на Huawei Ascend — без NVIDIA-зависимости.

8x A100 — FP16

Qwen 3.5 397B

FLAGSHIP
397B MoE → 17B active

1M токенов контекста. Apache 2.0. Сильна на длинных документах и reasoning.

8x A100

Kimi K2.5

AGENTS
1T MoE → 32B active

Мультимодальная. Agent Swarm — 100 параллельных агентов.

8x A100 — INT8

Mistral Large 3

OPEN
675B MoE → 41B active

Сильный универсал. Apache 2.0.

8x A100 — FP16

Llama 4 Maverick

META
400B+ MoE, 128 экспертов

Мультимодальная. 10M контекст (Scout).

8x A100 — FP16
640 GB VRAM = любая open-source модель

8x A100 с NVLink вмещает модели до 744B параметров в FP16. Одна карта — до 40B (FP16) или 70B (INT8). Закон о суверенном AI (март 2026) разрешает DeepSeek, Qwen, Mistral, Llama при размещении в РФ.

Подобрать модель

Частые вопросы

Начать работу

Обсудите проект с нами

Расскажите о задаче — подберём конфигурацию и подготовим КП. Бесплатный тест 1 час для оценки производительности.

Написать в Telegram

@zakievbulat — ответим за 15 минут

1 час
Бесплатный тест
1 день
Минимальная аренда
Рубли
Оплата + документы
24/7
Поддержка
Бесплатный тест

Тестовый доступ 48 часов

Возьмите 8× A100 на двое суток и проверьте под свою задачу — fine-tuning, бенчмарк, нагрузка. Без оплаты, без обязательств. Подойдёт CTO для оценки перед длинным контрактом.

Отправляя форму, вы соглашаетесь с политикой.

Готовы попробовать?

1 час A100 бесплатно после регистрации

Зарегистрируйтесь — получите API-ключ и кредит на тест inference или аренду GPU. В Dashboard можно запустить сервер, проверить счёт и скачать закрывающие документы.

  • Без предоплаты
  • Договор и УПД
  • 152-ФЗ, данные в РФ