一、模型介紹
GLM-4.1V-9B-Thinking是由智譜AI聯合清華大學團隊推出的多模態大模型,以GLM-4-9B-0414基座模型為底,通過引入“思維鏈推理機制”和“課程采樣強化學習策略”(Reinforcement Learning with Curriculum Sampling),顯著提升了模型的跨模態推理能力與穩定性。在繼承 GLM 系列通用大模型能力的基礎上,進一步強化了視覺理解和復雜推理能力。
該模型支持長上下文輸入,具備處理圖像、視頻、文本等多種模態的能力,適用于教育、科研、工業和政務等多個領域。在28項測評任務中有23項達到10B級別模型最佳,其中18項任務持平甚至超過8倍參數量的Qwen-2.5-VL-72B。
GLM-4.1V-9B-Thinking標志著智譜GLM系列模型從感知向認知階段的躍遷,在突破了小模型的性能極限下,也作出如下創新:
1.在深度推理領域表現卓越,支持圖像、視頻、文檔等多模態輸入。
2.作為參數模型僅為9B的模型,在部分高難度任務中,模型表現可以媲美GPT-4o。
3.模型開源,還提供了堅實的GLM-4.1V-9B-Base模型,利于研究者們的二次開放與創新。
二、模型部署
基礎環境最低配置推薦
環境名稱 | 版本信息 |
---|---|
Ubuntu | 22.04.4 LTS |
Python | 3.12.4 |
CUDA | 12.6 |
NVIDIA Corporation | RTX 4090 * 2 |
注:推薦pytorch 2.7.1
1.更新基礎軟件包、配置鏡像源
查看系統版本信息
#查看系統的版本信息,包括 ID(如 ubuntu、centos 等)、版本號、名稱、版本號 ID 等
cat /etc/os-release
更新軟件包列表
#更新軟件列表
apt-get update
配置國內鏡像源(阿里云)
具體而言,vim指令編輯文件?sources.list
#編輯源列表文件
vim /etc/apt/sources.list
按?“i”
進入編輯模式,將如下內容插入至?sources.list
文件中
deb http://mirrors.aliyun.com/ubuntu/ jammy main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ jammy-security main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy-security main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ jammy-updates main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy-updates main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ jammy-backports main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy-backports main restricted universe multiverse
最后,按?"esc"
鍵退出編輯模式,輸入?:wq
?命令并按下?“enter”
鍵便可保存并退出?sources.list
文件
2.虛擬環境創建
進入pytorch官網(Get Started)
找到從本地開始(Start Locally)——>PyTorch Build(Stable 2.7.1)——>Your OS(Windows)——>Packge(Pip)——>Language(Python)——>Compule Platform(CUDA 12.6)
復制所框選“命令行“后,轉入至終端中粘貼執行安裝
創建虛擬環境
#創建名為GLM-Thking的虛擬環境,python版本:3.12
conda create -n GLM-Thking python=3.12
激活虛擬環境
#激活
conda activate GLM-Thking
3.克隆項目
進入文件夾GLM-4.1V-9B-Thinking
cd /root/sj-tmp/GLM-4.1V-9B-Thinking/
從github官網中克隆存儲庫
#克隆存儲庫
git clone https://github.com/THUDM/GLM-4.1V-Thinking.git
4.下載依賴
requirements.txt文件
pip install -r requirements.txt
5.模型下載
轉到魔塔社區官網下載模型文件:GLM-4.1V-9B-Thinking · 模型庫
使用命令行下載完整模型庫
#在下載前,請先通過如下命令安裝
pip install modelscope#命令行下載
modelscope download --model ZhipuAI/GLM-4.1V-9B-Thinking
6.模型推理及webUI啟動
模型推理代碼均在?inference
文件夾中
(1)執行命令行交互腳本?trans_infer_cli.py
?便可進行連續對話
python trans_infer_cli.py --model_path '/root/sj-tmp/GLM-4.1V-9B-Thinking/'
(2)執行Gradio 界面腳本?trans_infer_gradio.py
便可搭建一個可以直接使用的 Web 界面
python trans_infer_gradio.py
若遇到端口被占用的問題,可通過如下命令解決:
#查看端口號進程
lsof -i :<端口號>
#強制退出進程
kill -9 <API>