Запущен Tinker — гибкий API для тонкой настройки языковых моделей

Компания представила Tinker — новый API для файн-тюнинга языковых моделей, который дает исследователям и разработчикам контроль над алгоритмами и данными. Сервис поддерживает модели разных размеров, включая крупные mixture-of-experts модели вроде Qwen-235B-A22B. Переключение между маленькой и большой моделью требует изменения всего одной строки в Python-коде.

Tinker работает как управляемый сервис на внутренних кластерах компании, автоматически обрабатывая планирование задач, распределение ресурсов и восстановление после сбоев. Использование технологии LoRA позволяет разделять один пул вычислительных ресурсов между несколькими процессами обучения, что существенно снижает затраты.

API предоставляет низкоуровневые примитивы типа forward_backward и sample, которые можно использовать для большинства методов пост-тренинга. Вместе с API выпускается open-source библиотека Tinker Cookbook с современными реализациями методов дообучения моделей.

Платформу уже протестировали исследовательские группы из четырех ведущих университетов: команда Princeton Goedel обучала математические теоремы-доказатели, группа Rotskoff Chemistry из Стэнфорда настраивала модель для химических задач, Berkeley SkyRL экспериментировала с мультиагентным обучением с подкреплением, а Redwood Research использовала RL для Qwen3-32B в сложных задачах контроля ИИ.

Сервис находится в стадии закрытого бета-тестирования, регистрация на участие уже открыта. Пока Tinker будет бесплатным, но в ближайшие недели планируется введение тарификации по использованию.

Источник новости и обложки: thinkingmachines.ai


Работаю главным редактором proglib.io — опубликовал более 800 статей и создал популярные рассылки о нейросетях и разработке. Помимо редактуры владею Python, с его помощью автоматизирую повседневные задачи.

Аватар пользователя Мирослав Кунгуров