Компания NVIDIA анонсировала серию языковых моделей OpenReasoning-Nemotron, предназначенных для решения задач в области точных наук, информатики и программирования. Главное отличие — возможность локального запуска без подключения к облачным сервисам. Модели рассчитаны на использование на домашних ПК с мощными видеокартами.
В линейке представлены четыре варианта: с 1,5 млрд, 7 млрд, 14 млрд и 32 млрд параметров. Все они были созданы с применением техники дистилляции на базе масштабной модели DeepSeek R1, содержащей 671 млрд параметров. В качестве архитектурной основы использована Qwen‑2.5. Обучение проходило на 5 млн примеров решений задач, сгенерированных с помощью инструмента NVIDIA NeMo Skills.
Отличительной особенностью является отказ от обучения с подкреплением (RLHF). Модели прошли только контролируемое обучение, благодаря чему NVIDIA позиционирует их как «чистую» стартовую точку для исследований и кастомизации.
По результатам тестирования, самая крупная модель (32B) набрала 89,2 балла в математическом экзамене AIME24 и 73,8 — в февральском турнире HMMT. Младшая версия (1.5B) показала 55,5 и 31,5 балла соответственно.
NVIDIA OpenReasoning-Nemotron доступны для загрузки на платформе Hugging Face. Все модели поддерживают режим GenSelect — запуск нескольких ответов параллельно с выбором лучшего. По данным NVIDIA, это позволяет 32B-модели достигать или даже превосходить уровень OpenAI o3‑high в некоторых задачах по математике и программированию.
Компания рассматривает новую серию как универсальный инструмент для исследователей, преподавателей и энтузиастов. Локальный запуск и открытый процесс обучения делают модели удобной основой для дообучения и адаптации под прикладные задачи.
Не пропустите интересное!
Підписывайтесь на наши каналы и читайте анонсы хай-тек новостей, тестов и обзоров в удобном формате!