Несмотря на относительно скромные 32 миллиарда параметров, QwQ-32B продемонстрировала высокие результаты в математике, программировании и решении общих задач. Для сравнения, DeepSeek R1 использует 671 миллиард параметров, а OpenAI o1-mini — 100 миллиардов. Уменьшенное число параметров позволяет модели работать при меньших вычислительных затратах, что упрощает ее внедрение.
Разработка QwQ-32B соответствует стратегическому курсу Alibaba на создание ИИ с практическими приложениями, о чем ранее говорил председатель компании Джозеф Цай. Новая модель основана на методах обучения с подкреплением, аналогичных тем, что использовались при создании DeepSeek R1.