今天,通義千問開源了推理模型QwQ-32B
QwQ-32B 在一系列基準測試中進行了評估,測試了數學推理、編程能力和通用能力。以下結果展示了 QwQ-32B 與其他領先模型的性能對比,包括 DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B、o1-mini 以及原始的 DeepSeek-R1。
在測試數學能力的 AIME24 評測集上,以及評估代碼能力的 LiveCodeBench 中,千問 QwQ-32B 表現與DeepSeek-R1相當,遠勝于 o1-mini 及相同尺寸的R1 蒸餾模型;在由Meta首席科學家楊立昆領銜的“最難LLMs評測榜” LiveBench、谷歌等提出的指令遵循能力IFEval評測集、由加州大學伯克利分校等提出的評估準確調用函數或工具方面的BFCL測試中,千問 QwQ-32B 的得分均超越了 DeepSeek- R1。
最近這一兩周不少公司已開啟春招。
不同以往的是,當前職場環境已不再是那個雙向奔赴時代了。求職者在變多,HC 在變少,崗位要求還更高了。
最近,我們又陸續整理了很多大廠的面試題,幫助一些球友解惑答疑,分享技術面試中的那些彎彎繞繞。
總結如下:
《大模型面試寶典》(2025版) 發布!
喜歡本文記得收藏、關注、點贊
大規模強化學習
研究團隊在冷啟動的基礎上開展了大規模強化學習。在初始階段,特別針對數學和編程任務進行了 RL 訓練。與依賴傳統的獎勵模型(reward model)不同,研究團隊通過校驗生成答案的正確性來為數學問題提供反饋,并通過代碼執行服務器評估生成的代碼是否成功通過測試用例來提供代碼的反饋。
研究團隊發現在 RL 擴展過程中,隨著訓練輪次的推進,這兩個領域中的性能均表現出持續的提升。
在第一階段的 RL 過后,研究團隊增加了另一個針對通用能力的 RL。此階段使用通用獎勵模型和一些基于規則的驗證器進行訓練。研究團隊發現,通過少量步驟的通用 RL,可以提升其他通用能力,同時在數學和編程任務上的性能沒有顯著下降。
模型推理
Transformers
from modelscope import AutoModelForCausalLM, AutoTokenizermodel_name = "Qwen/QwQ-32B"model = AutoModelForCausalLM.from_pretrained(model_name,torch_dtype="auto",device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)prompt = "How many r's are in the word \"strawberry\""
messages = [{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True
)model_inputs = tokenizer([text], return_tensors="pt").to(model.device)generated_ids = model.generate(**model_inputs,max_new_tokens=32768
)
generated_ids = [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
Ollama本地拉起
通過Ollama與魔搭平臺的整合,開發者也可以直接在本地的Ollama環境,直接運行QwQ-32B模型:
ollama run modelscope.cn/Qwen/QwQ-32B-GGUF
模型微調
我們展示對QwQ-32B進行微調的demo,并給出自定義數據集的格式。
在開始微調之前,請確保您的環境已準備妥當。
# pip install git+https://github.com/modelscope/ms-swift.gitgit clone https://github.com/modelscope/ms-swift.git
cd ms-swift
pip install -e .
首先我們使用QWQ-32B蒸餾部分數據,保持其思考的能力,將蒸餾的數據保存在本地路徑:qwq-32b-distill.jsonl。
CUDA_VISIBLE_DEVICES=0,1 \
swift infer \--model Qwen/QwQ-32B \--infer_backend vllm \--val_dataset 'AI-ModelScope/alpaca-gpt4-data-zh#1000' 'AI-ModelScope/alpaca-gpt4-data-en#1000' \--gpu_memory_utilization 0.9 \--max_model_len 32768 \--max_new_tokens 8192 \--result_path qwq-32b-distill.jsonl \--tensor_parallel_size 2 \--disable_custom_all_reduce true
微調腳本如下:
NPROC_PER_NODE=2 \
CUDA_VISIBLE_DEVICES=0,1 \
swift sft \--model Qwen/QwQ-32B \--train_type lora \--dataset 'qwq-32b-distill.jsonl' \'<your-dataset-path>' \--torch_dtype bfloat16 \--num_train_epochs 1 \--per_device_train_batch_size 1 \--per_device_eval_batch_size 1 \--learning_rate 1e-4 \--lora_rank 8 \--lora_alpha 32 \--target_modules all-linear \--gradient_accumulation_steps 8 \--eval_steps 50 \--save_steps 50 \--save_total_limit 5 \--logging_steps 5 \--max_length 4096 \--output_dir output \--warmup_ratio 0.05 \--dataloader_num_workers 4 \--model_author swift \--model_name swift-robot \--deepspeed zero2
自定義數據集可以參考以下格式:
{"messages": [{"role": "system", "content": "你是個有用無害的助手"}, {"role": "user", "content": "告訴我明天的天氣"}, {"role": "assistant", "content": "<think>\n...</think>\n\n明天天氣晴朗"}]}
{"messages": [{"role": "system", "content": "你是個有用無害的數學計算器"}, {"role": "user", "content": "1+1等于幾"}, {"role": "assistant", "content": "<think>\n...</think>\n\n等于2"}, {"role": "user", "content": "再加1呢"}, {"role": "assistant", "content": "<think>\n...</think>\n\n等于3"}]}
訓練顯存占用:
訓練完成后,使用以下命令對訓練后的權重進行推理,這里的`–adapters`需要替換成訓練生成的last checkpoint文件夾。
CUDA_VISIBLE_DEVICES=0 \
swift infer \--adapters output/vx-xxx/checkpoint-xxx \--stream true \--max_new_tokens 2048 \--infer_backend pt
推送模型到ModelScope:
CUDA_VISIBLE_DEVICES=0 \
swift export \--adapters output/vx-xxx/checkpoint-xxx \--push_to_hub true \--hub_model_id '<your-model-id>' \--hub_token '<your-sdk-token>'