📚 Как заработать на AI-инференсе
Полный гайд: от выбора железа до первого заработка
🤖 Что такое AI-инференс?
AI-инференс — это процесс запуска обученных нейросетей (LLM) на своём оборудовании для генерации текста, кода или изображений. Проще говоря: вы устанавливаете модель на свой компьютер с мощной видеокартой и «продаёте» её вычислительную мощность через API.
Когда пользователь отправляет запрос — ваша GPU обрабатывает его и генерирует ответ. За каждый обработанный токен (примерно 4 символа текста) вы получаете оплату.
Это похоже на майнинг криптовалют, но вместо хешей вы генерируете текст. И спрос на AI-инференс растёт быстрее, чем на майнинг.
💰 Как на этом зарабатывают?
Есть несколько способов монетизации своего GPU через инференс:
- API-провайдеры — подключаетесь к платформам вроде OpenRouter, Together AI или Runpod и обрабатываете запросы пользователей. Оплата за токены.
- Собственный API — поднимаете vLLM или Ollama сервер и продаёте доступ напрямую.
- Децентрализованные сети — Akash, Render Network, io.net — присоединяете своё GPU к пулу и получаете вознаграждение.
Аналогия с майнингом: Вместо решения математических задач ваше GPU генерирует текст. Вместо блок-реварда вы получаете оплату за токены. Вместо пула майнеров — API-провайдер.
🖥️ Какое железо нужно?
Самое важное — VRAM (видеопамять). Чем больше VRAM, тем более крупные и дорогие модели вы можете запускать. Скорость генерации (tokens/sec) зависит от пропускной способности памяти (bandwidth).
Топ-5 GPU для начинающих:
RTX 4060 Ti 16GB
$499Лучший вариант по соотношению цена/VRAM. 16 ГБ хватит для моделей до 13B.
RX 7800 XT 16GB
$499AMD альтернатива с 16 ГБ. Поддержка ROCm для ML улучшается.
RTX 5070 12GB
$549Новейшее поколение NVIDIA. Высокая скорость, но меньше VRAM.
RTX 4070 SUPER 12GB
$599Отличная производительность для моделей до 7B в полной точности.
RTX 3080 10GB
$600Б/У вариант за ~$300. Хорош для старта с маленькими моделями.
Больше GPU → Полный каталог железа
🏆 Какие модели самые прибыльные?
Прибыльность модели зависит от цены за токен на рынке и скорости генерации на вашем GPU. Вот топ-5 моделей по стоимости выходных токенов:
Command R+
$10/1M токеновФлагман Cohere для enterprise. Высокая цена токенов, но нужна мощная GPU.
Mistral Large 2
$6/1M токеновЕвропейская модель топ-уровня. Требует от 48 ГБ VRAM.
DeepSeek R1
$2.5/1M токеновReasoning-модель нового поколения. Хороший баланс цены и требований.
Qwen 3 235B
$1.82/1M токеновКитайский гигант от Alibaba. MoE архитектура снижает требования к железу.
GigaChat 2 Max
$1.5/1M токеновФлагман Сбера. Актуален для российского рынка.
Цены указаны в $ за 1 миллион выходных токенов (OpenRouter).
📋 Пошаговый гайд
Установите runtime
Выберите один из популярных runtime для запуска моделей:
- Ollama — самый простой вариант. Одна команда для установки и запуска.
- vLLM — максимальная производительность. Paged Attention, continuous batching.
- llama.cpp — для CPU или маломощных GPU. Квантизация GGUF.
# Установка Ollama
curl -fsSL https://ollama.com/install.sh | sh
# Запуск модели
ollama run llama3.1:8b
Выберите модель
Модель должна помещаться в VRAM вашей видеокарты. Используйте квантизацию (q4, q8) для экономии памяти:
- 8-12 ГБ VRAM: модели до 7B (Llama 3.1 8B, Qwen 3 8B, Gemma 2 9B)
- 16-24 ГБ VRAM: модели до 13B (Llama 3.1 13B, Command R)
- 48+ ГБ VRAM: модели 70B+ (Llama 3.1 70B, Mistral Large)
Подключитесь к API-провайдеру
Зарегистрируйтесь на платформе и начните получать запросы:
- OpenRouter — крупнейший маркетплейс моделей, легко начать
- Together AI — ориентирован на open-source модели
- Runpod — аренда и предоставление GPU для инференса
- io.net — децентрализованная GPU-сеть
Настройте сервер
# vLLM — запуск OpenAI-совместимого сервера
pip install vllm
vllm serve meta-llama/Llama-3.1-8B-Instruct \
--port 8000 --max-model-len 8192
Мониторьте профит
Отслеживайте доход, расход электричества и ROI. Используйте наш калькулятор для оценки прибыльности разных конфигураций.
☁️ Облачный инференс в России
Если нет собственного GPU — можно арендовать в российских облаках. Это также подходит для масштабирования: запустить несколько инстансов с мощными A100/H100.
Cloud.ru (Сбер)
ML Space, суперкомпьютер Christofari. A100, V100, T4.
Selectel
Bare-metal GPU серверы. A100, H100. Полный контроль.
Yandex Cloud
DataSphere для ML. A100, V100, T4. YandexGPT API.
Подробное сравнение цен и фич → Облачные провайдеры
⚡ Рассчитайте ваш профит
Выберите ваше GPU, модель и стоимость электричества — и узнайте, сколько можно заработать на AI-инференсе.
Открыть калькулятор →