Между вашим запросом и ответом ИИ — «бабушка COBOL» и кластер GPU стоимостью с квартиру в Москве
"Humans are allergic to change. They love to say, 'We've always done it this way.' I try to fight that. That's why I have a clock on my wall that runs counter-clockwise."
«Люди аллергичны к переменам. Они обожают говорить: “Мы всегда так делали”. Я пытаюсь с этим бороться. Поэтому у меня на стене висят часы, которые идут против часовой стрелки.» — Грейс Хоппер
TL;DR: Вы пишете запрос. ИИ отвечает за секунду. Между этими двумя событиями — серверная стойка с GPU, каждый из которых стоит как подержанный автомобиль. Кластер — как квартира в Москве. Мы решили рассказать, из чего на самом деле состоит «магия» ИИ, и почему HR-директору полезно это понимать.
Секунда, которая стоит миллионы
Когда ИИ-рекрутер проводит интервью с кандидатом, со стороны это выглядит просто: вопрос — ответ, вопрос — ответ. Быстро, точно, вежливо. Как будто где-то сидит очень умный и очень быстрый человек.
На самом деле за каждым ответом стоит цепочка, которую мало кто видит:
- Запрос пользователя улетает в дата-центр — иногда за тысячи километров
- Текст токенизируется — разбивается на фрагменты, понятные модели
- Модель с миллиардами параметров прогоняет токены через сотни слоёв нейросети
- Каждый слой — это миллионы матричных умножений, которые выполняются параллельно на GPU
- Результат собирается , форматируется и отправляется обратно
Всё это — за секунду. И всё это потребляет электричества как небольшой офис.
Что такое GPU и почему без него ИИ не работает
GPU — Graphics Processing Unit — изначально создавался для обработки графики в играх. Но оказалось, что его архитектура идеально подходит для нейросетей: тысячи ядер, которые выполняют простые операции одновременно.
Обычный процессор (CPU) — это один гениальный сотрудник, который решает задачи последовательно. GPU — это тысячи стажёров, которые считают параллельно. Для ИИ нужны именно стажёры — потому что нейросеть состоит из миллиардов одинаковых операций.
Лидер рынка — NVIDIA . И тут начинается самое интересное.
RTX хорошо, а Hopper лучше
NVIDIA выпускает два принципиально разных класса GPU. RTX — для потребителей: геймеров, дизайнеров, видеомонтажёров. Новейшая линейка — RTX 6000 SE на архитектуре Blackwell . Мощная, красивая, стоит от $2 000 до $30 000 в зависимости от версии.
А есть Hopper — архитектура для дата-центров. H100, H200 — это GPU, на которых реально обучаются и работают большие языковые модели. ChatGPT, Claude, всё что вы используете — крутится на Hopper или его наследнике Blackwell B200.
Разница — как между городским автомобилем и карьерным самосвалом. Оба ездят. Но один возит людей, а другой — горную породу тоннами.
- NVIDIA H100 — от $25 000 до $40 000 за штуку. Одному GPU в кластере одиноко — нужны десятки
- NVIDIA H200 — ещё дороже, ещё быстрее. Больше памяти для больших моделей
- NVIDIA B200 (Blackwell) — следующее поколение. Производительность инференса в 2-3 раза выше Hopper
Один кластер для обучения большой модели — это сотни GPU. Стоимость — десятки миллионов долларов. Сравнимо с несколькими квартирами в Москва-Сити.
Что это значит для вашего ИИ-рекрутера
Когда вы используете ИИ-рекрутера, вы не платите за GPU напрямую. Но вся стоимость инфраструктуры заложена в каждый запрос:
- Инференс (генерация ответа) потребляет GPU-время. Каждое интервью — это тысячи запросов к модели
- Стоимость одного токена — доли цента. Но интервью из 50 сообщений — это десятки тысяч токенов
- Масштаб — когда сотни кандидатов проходят интервью одновременно, нагрузка на кластер растёт линейно
Вот почему ИИ-сервисы стоят денег. Не потому что разработчики жадные — а потому что за каждым «привет, расскажите о себе» стоит серверная стойка, которая потребляет электричества на тысячи рублей в час.
Хорошая новость: с каждым годом дешевле
Каждое новое поколение GPU делает инференс дешевле:
- Hopper → Blackwell — производительность инференса выросла в 2-3 раза при том же энергопотреблении
- Конкуренция — AMD, Google (TPU), Amazon (Trainium) давят на цены
- Оптимизация моделей — квантизация, дистилляция позволяют запускать модели на менее мощном железе
Что это значит для HR? ИИ-рекрутинг будет становиться доступнее каждый год. То, что сегодня могут позволить себе крупные компании, через 2-3 года будет доступно среднему бизнесу. А потом — и малому.
Зачем HR-директору это знать
Вам не нужно разбираться в архитектуре CUDA-ядер. Но понимание базовой экономики ИИ поможет:
- Понимать ценообразование. Если вендор говорит «ИИ-рекрутер за 500 рублей в месяц» — спросите, на каких моделях он работает. Дешёвый ИИ = слабая модель = плохие интервью
- Оценивать качество. Разница между GPT-4 и мелкой открытой моделью — как между опытным рекрутером и стажёром. И да, GPT-4 стоит в 10 раз дороже в инференсе
- Планировать бюджет. Стоимость ИИ привязана к объёму: 100 интервью в месяц и 10 000 — это разный GPU-бюджет
- Не вестись на маркетинг. Когда вендор говорит «у нас свой ИИ» — уточните: своя модель или обёртка над API? Это принципиально разная экономика
Почему мы об этом пишем
Мы в Qooqa верим в прозрачность. Наши клиенты имеют право знать, из чего складывается стоимость ИИ-интервью и почему качество стоит денег.
Когда кандидат разговаривает с нашим ИИ-ассистентом — за каждым ответом стоит одна из лучших моделей в мире, работающая на кластере GPU, который стоит как квартира . Мы не экономим на железе, потому что экономить на качестве интервью — это экономить на людях. А люди — это то, ради чего весь рекрутинг существует.
Между вашим запросом и ответом ИИ — не магия. Магия — это то, что всё это стало доступно прямо сейчас.
P.S. Hopper — это прежде всего человек
Мы не можем написать статью со словом Hopper в заголовке и не сказать главного. Для нас Hopper — это прежде всего Грейс Мюррей Хоппер (1906–1992) — математик и пионер программирования.
Она создала первый в истории компилятор, разработала концепцию языков программирования, независимых от машины, и заложила фундамент для создания COBOL. Её называли «бабушкой COBOL» — но это слишком скромно. Без её идей не было бы ни Python, ни JavaScript, ни того кода, на котором работают современные нейросети.
Грейс Хоппер была не только гениальным учёным — она была наставником . Она учила людей думать иначе, не бояться нового и задавать вопросы, которые другие считали глупыми. Её слова в начале этой статьи — не просто цитата. Это девиз каждого, кто внедряет ИИ сегодня.
NVIDIA назвала свою архитектуру в её честь. И каждый раз, когда GPU Hopper обрабатывает ваш запрос к ИИ — в каком-то смысле Грейс Хоппер всё ещё учит нас думать по-новому.
Цены на GPU актуальны на момент публикации и могут меняться. NVIDIA, Hopper, Blackwell, RTX — товарные знаки NVIDIA Corporation.