32 milliard parametrden ybaratdygyna garamazdan, QwQ-32B matematika, programmirleme we umumy meseleleri çözmekde ýokary netijeliligi görkezdi. Mysal üçin, DeepSeek R1 671 milliard parametr ulanýar, OpenAI o1-mini bolsa 100 milliard. Parametrleriň azalmagy modeli has pes hasaplaýyş çykdajylary bilen işledýär we ornaşdyrmagy aňsatlaşdyrýar.
QwQ-32B-iň ösüşi Alibaba-nyň başlygy Jozef Tsai tarapyndan öňe sürlen, amaly programmalar bilen AI döretmek baradaky strategiki ugruna laýyk gelýär. Täze model DeepSeek R1-iň döredilmeginde ulanylanlara meňzeş güýçlendirme okuw usullaryna esaslanýar.