Все материалы

Между вашим запросом и ответом ИИ — «бабушка COBOL» и кластер GPU стоимостью с квартиру в Москве

trends8 минКоманда Qooqa, HR Tech эксперты22 марта 2026 г.
"Humans are allergic to change. They love to say, 'We've always done it this way.' I try to fight that. That's why I have a clock on my wall that runs counter-clockwise."

«Люди аллергичны к переменам. Они обожают говорить: “Мы всегда так делали”. Я пытаюсь с этим бороться. Поэтому у меня на стене висят часы, которые идут против часовой стрелки.» — Грейс Хоппер

TL;DR: Вы пишете запрос. ИИ отвечает за секунду. Между этими двумя событиями — серверная стойка с GPU, каждый из которых стоит как подержанный автомобиль. Кластер — как квартира в Москве. Мы решили рассказать, из чего на самом деле состоит «магия» ИИ, и почему HR-директору полезно это понимать.

Автоматизируйте подбор с Qooqa
Узнайте, как сервис помогает закрывать вакансии быстрее

Секунда, которая стоит миллионы

Когда ИИ-рекрутер проводит интервью с кандидатом, со стороны это выглядит просто: вопрос — ответ, вопрос — ответ. Быстро, точно, вежливо. Как будто где-то сидит очень умный и очень быстрый человек.

На самом деле за каждым ответом стоит цепочка, которую мало кто видит:

  • Запрос пользователя улетает в дата-центр — иногда за тысячи километров
  • Текст токенизируется — разбивается на фрагменты, понятные модели
  • Модель с миллиардами параметров прогоняет токены через сотни слоёв нейросети
  • Каждый слой — это миллионы матричных умножений, которые выполняются параллельно на GPU
  • Результат собирается , форматируется и отправляется обратно

Всё это — за секунду. И всё это потребляет электричества как небольшой офис.

Что такое GPU и почему без него ИИ не работает

GPU — Graphics Processing Unit — изначально создавался для обработки графики в играх. Но оказалось, что его архитектура идеально подходит для нейросетей: тысячи ядер, которые выполняют простые операции одновременно.

Обычный процессор (CPU) — это один гениальный сотрудник, который решает задачи последовательно. GPU — это тысячи стажёров, которые считают параллельно. Для ИИ нужны именно стажёры — потому что нейросеть состоит из миллиардов одинаковых операций.

Лидер рынка — NVIDIA . И тут начинается самое интересное.

RTX хорошо, а Hopper лучше

NVIDIA выпускает два принципиально разных класса GPU. RTX — для потребителей: геймеров, дизайнеров, видеомонтажёров. Новейшая линейка — RTX 6000 SE на архитектуре Blackwell . Мощная, красивая, стоит от $2 000 до $30 000 в зависимости от версии.

А есть Hopper — архитектура для дата-центров. H100, H200 — это GPU, на которых реально обучаются и работают большие языковые модели. ChatGPT, Claude, всё что вы используете — крутится на Hopper или его наследнике Blackwell B200.

Разница — как между городским автомобилем и карьерным самосвалом. Оба ездят. Но один возит людей, а другой — горную породу тоннами.

  • NVIDIA H100 — от $25 000 до $40 000 за штуку. Одному GPU в кластере одиноко — нужны десятки
  • NVIDIA H200 — ещё дороже, ещё быстрее. Больше памяти для больших моделей
  • NVIDIA B200 (Blackwell) — следующее поколение. Производительность инференса в 2-3 раза выше Hopper

Один кластер для обучения большой модели — это сотни GPU. Стоимость — десятки миллионов долларов. Сравнимо с несколькими квартирами в Москва-Сити.

Что это значит для вашего ИИ-рекрутера

Когда вы используете ИИ-рекрутера, вы не платите за GPU напрямую. Но вся стоимость инфраструктуры заложена в каждый запрос:

  • Инференс (генерация ответа) потребляет GPU-время. Каждое интервью — это тысячи запросов к модели
  • Стоимость одного токена — доли цента. Но интервью из 50 сообщений — это десятки тысяч токенов
  • Масштаб — когда сотни кандидатов проходят интервью одновременно, нагрузка на кластер растёт линейно

Вот почему ИИ-сервисы стоят денег. Не потому что разработчики жадные — а потому что за каждым «привет, расскажите о себе» стоит серверная стойка, которая потребляет электричества на тысячи рублей в час.

Хорошая новость: с каждым годом дешевле

Каждое новое поколение GPU делает инференс дешевле:

  • Hopper → Blackwell — производительность инференса выросла в 2-3 раза при том же энергопотреблении
  • Конкуренция — AMD, Google (TPU), Amazon (Trainium) давят на цены
  • Оптимизация моделей — квантизация, дистилляция позволяют запускать модели на менее мощном железе

Что это значит для HR? ИИ-рекрутинг будет становиться доступнее каждый год. То, что сегодня могут позволить себе крупные компании, через 2-3 года будет доступно среднему бизнесу. А потом — и малому.

Зачем HR-директору это знать

Вам не нужно разбираться в архитектуре CUDA-ядер. Но понимание базовой экономики ИИ поможет:

  • Понимать ценообразование. Если вендор говорит «ИИ-рекрутер за 500 рублей в месяц» — спросите, на каких моделях он работает. Дешёвый ИИ = слабая модель = плохие интервью
  • Оценивать качество. Разница между GPT-4 и мелкой открытой моделью — как между опытным рекрутером и стажёром. И да, GPT-4 стоит в 10 раз дороже в инференсе
  • Планировать бюджет. Стоимость ИИ привязана к объёму: 100 интервью в месяц и 10 000 — это разный GPU-бюджет
  • Не вестись на маркетинг. Когда вендор говорит «у нас свой ИИ» — уточните: своя модель или обёртка над API? Это принципиально разная экономика

Почему мы об этом пишем

Мы в Qooqa верим в прозрачность. Наши клиенты имеют право знать, из чего складывается стоимость ИИ-интервью и почему качество стоит денег.

Когда кандидат разговаривает с нашим ИИ-ассистентом — за каждым ответом стоит одна из лучших моделей в мире, работающая на кластере GPU, который стоит как квартира . Мы не экономим на железе, потому что экономить на качестве интервью — это экономить на людях. А люди — это то, ради чего весь рекрутинг существует.

Между вашим запросом и ответом ИИ — не магия. Магия — это то, что всё это стало доступно прямо сейчас.

P.S. Hopper — это прежде всего человек

Мы не можем написать статью со словом Hopper в заголовке и не сказать главного. Для нас Hopper — это прежде всего Грейс Мюррей Хоппер (1906–1992) — математик и пионер программирования.

Она создала первый в истории компилятор, разработала концепцию языков программирования, независимых от машины, и заложила фундамент для создания COBOL. Её называли «бабушкой COBOL» — но это слишком скромно. Без её идей не было бы ни Python, ни JavaScript, ни того кода, на котором работают современные нейросети.

Грейс Хоппер была не только гениальным учёным — она была наставником . Она учила людей думать иначе, не бояться нового и задавать вопросы, которые другие считали глупыми. Её слова в начале этой статьи — не просто цитата. Это девиз каждого, кто внедряет ИИ сегодня.

NVIDIA назвала свою архитектуру в её честь. И каждый раз, когда GPU Hopper обрабатывает ваш запрос к ИИ — в каком-то смысле Грейс Хоппер всё ещё учит нас думать по-новому.

Цены на GPU актуальны на момент публикации и могут меняться. NVIDIA, Hopper, Blackwell, RTX — товарные знаки NVIDIA Corporation.

FAQ
Сколько стоит GPU для ИИ?
Серверные GPU для ИИ (NVIDIA H100, H200) стоят от $25 000 до $40 000 за штуку. Для обучения больших моделей нужны кластеры из сотен таких GPU. Для инференса (генерации ответов) масштаб меньше, но всё равно требуются десятки GPU для обслуживания тысяч одновременных запросов.
Чем Hopper отличается от RTX?
RTX — потребительские GPU для игр и дизайна. Hopper (H100, H200) — серверные GPU для дата-центров, оптимизированные под обучение и инференс нейросетей. Hopper имеет специализированные тензорные ядра и большую пропускную способность памяти, что критично для больших языковых моделей.
Почему ИИ-сервисы стоят денег?
Каждый запрос к ИИ потребляет GPU-время, электричество и пропускную способность сети. Стоимость одного токена — доли цента, но интервью с кандидатом — это десятки тысяч токенов. При масштабе в тысячи интервью GPU-затраты становятся значительными. Качественные модели (GPT-4, Claude) стоят в разы дороже слабых, но дают принципиально лучшие результаты.
Узнайте, как Qooqa решает задачи за вас автоматически
Обновлено: 22 марта 2026 г.