Компания представила Tinker — новый API для файн-тюнинга языковых моделей, который дает исследователям и разработчикам контроль над алгоритмами и данными. Сервис поддерживает модели разных размеров, включая крупные mixture-of-experts модели вроде Qwen-235B-A22B. Переключение между маленькой и большой моделью требует изменения всего одной строки в Python-коде.
Tinker работает как управляемый сервис на внутренних кластерах компании, автоматически обрабатывая планирование задач, распределение ресурсов и восстановление после сбоев. Использование технологии LoRA позволяет разделять один пул вычислительных ресурсов между несколькими процессами обучения, что существенно снижает затраты.
API предоставляет низкоуровневые примитивы типа forward_backward и sample, которые можно использовать для большинства методов пост-тренинга. Вместе с API выпускается open-source библиотека Tinker Cookbook с современными реализациями методов дообучения моделей.
Платформу уже протестировали исследовательские группы из четырех ведущих университетов: команда Princeton Goedel обучала математические теоремы-доказатели, группа Rotskoff Chemistry из Стэнфорда настраивала модель для химических задач, Berkeley SkyRL экспериментировала с мультиагентным обучением с подкреплением, а Redwood Research использовала RL для Qwen3-32B в сложных задачах контроля ИИ.
Сервис находится в стадии закрытого бета-тестирования, регистрация на участие уже открыта. Пока Tinker будет бесплатным, но в ближайшие недели планируется введение тарификации по использованию.
Источник новости и обложки: thinkingmachines.ai