Энтузиаст Дэвид Ноэль Нг собрал высокопроизводительный десктоп на базе серверных чипов Nvidia Grace-Hopper для локального запуска больших языковых моделей. Система, купленная за €7500 на Reddit и доработанная до рабочего состояния, обошлась в итоге в €9000 и способна работать с моделями до 235 миллиардов параметров. История сборки, полная технических сложностей и нестандартных решений, была опубликована в блоге автора 5 декабря 2025 года.
В основе системы — два суперчипа Nvidia Grace-Hopper (GH200), каждый из которых объединяет 72-ядерный CPU Grace и GPU Hopper H100 с тензорными ядрами. Конфигурация включает 1152 ГБ быстрой памяти (LPDDR5X с ECC и HBM3) и обеспечивает высокую пропускную способность благодаря межчиповому соединению NVLink-C2C (900 ГБ/с). Исходно серверное оборудование, рассчитанное на жидкостное охлаждение в стойке, было куплено в «франкенштейн»-сборке с воздушным охлаждением и непригодным для монтажа в стойку блоком питания на 48В.

Процесс модернизации включал полную разборку, промывку материнской платы изопропиловым спиртом, разработку и установку медных адаптеров для перехода на систему жидкостного охлаждения от обычных ПК. Сборщик столкнулся с рядом критических проблем: выходом из строя контроллеров вентиляторов на материнской плате, из-за чего пришлось отключать мониторинг оборудования, и ложными показаниями датчиков температуры, сообщавших о 16 миллионах градусов Цельсия. Последняя неисправность, вызванная повреждением крошечных SMD-компонентов при сборке, была устранена с помощью микроскопа и ювелирной пайки.
После настройки драйверов с отключением NVLink для работы через PCIe система успешно запустилась. Предварительные тесты Llama.cpp показали скорость обработки промпта около 1022 ms/tok для модели Qwen3-235B в квантованном формате Q4. Итоговая стоимость проекта составила около €9000, что значительно дешевле рыночной цены даже одного GPU H100, и позволило создать уникальную платформу для локальных AI-экспериментов.
Источник новости и обложки: dnhkng.github.io

