LMStudio介紹
官網:LM Studio - Discover, download, and run local LLMs
LMStudio?是一個面向機器學習和自然語言處理的,旨在使開發者更容易構建和部署AI語言模型的應用軟件。
LMStudio的特點是:
完全本地離線運行AI大模型
可以從Huggingface查找下載最新的大模型
為本地應用提供AI模型調用
對話可以附帶本地pdf、docx等文檔
跟Ollama的不同
基本感覺LMStudio跟Ollama類似,都可以提供本地運行大模型,本地API調用等功能。但是Ollama更專注于開箱即用,為其它應用使用大模型提供大模型API調用,軟件界面比較簡單,Ollama本身只提供了命令行形式的chat。
LMStudio?提供了集成開發環境,下載模型和chat對話等都可以通過點擊鼠標實現,對新手更友好。
另外Ollama構建了自己的模型庫(網站),LMStudio則是使用huggingface模型庫(資源)。因此LMStudio支持的模型更多,而Ollama則使用起來更快捷。
第一次接觸它的時候,因為沒有科學上網,發現完全不能用,就放棄了它。
后來,是因為在各種AI軟件的API提供者配置中,大部分都有“LMStudio”大模型服務商這個設置,證明它還是比較流行的。
實踐
從官網下載安裝包:LM Studio - Discover, download, and run local LLMs
windows、Linux、MacOS等系統下都有安裝包,直接下載安裝即可。
啟動配置
常用的三個快捷鍵:
Ctrl+Shift+M尋找模型
Ctrl+Shift+R 設置運行架構
Ctrl+Shift+H 查看當前硬件
LMStudio運行架構最低需求是CPU+AVX2 ,跟Ollama的要求一樣,但其實Ollma是可以在CPU+AVX架構下運行deepseek-r1的1.5b和7b模型的。
搜尋模型
準備加載模型,先按Ctrl+Shift+M到Huggingface尋找模型。?
如果沒有科學上網,到了這步就會卡住,這也是LMStudio這個優秀軟件為什么我以前接觸了一下就沒再使用的原因,當時發現無法下載模型,這個軟件就是一個空殼子,啥也干不了。
手動下載模型安裝
使用transformers手動下載模型,比如
# Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("HuggingFaceTB/SmolLM2-135M")
model = AutoModelForCausalLM.from_pretrained("HuggingFaceTB/SmolLM2-135M")
模型下載到C:\Users\<YourUsername>
\.cache\huggingface\hub 目錄下。
在LMStudio “我的模型”配置頁面,將模型目錄設置為transformers的下載目錄,即可看到當前系統的模型:
但是在chat界面選擇這幾個模型,都無法加載,報錯:
No LM Runtime found for model format 'onnx'!?
No LM Runtime found for model format 'torchSafetensors'!
按照提示的,pip安裝了torchSafetensors
pip install safetensors
問題還是沒有解決
嘗試轉換格式(失敗)
使用如下命令可以轉格式,但是不會轉配置文件啊?
import torch
from safetensors.torch import load_file, save_filedef safetensors_to_bin(safetensors_path, bin_output_path):# 加載Safetensors格式的模型權重weights = load_file(safetensors_path)# 將模型權重轉換為PyTorch張量,并保存為.bin格式state_dict = {k: v.clone().cpu() for k, v in weights.items()}torch.save(state_dict, bin_output_path)# 示例用法
safetensors_to_bin('model.safetensors', 'model_converted.bin')
比如源文件位置設為inputx:?
inputx = "C:\\Users\\Admin\\.cache\\huggingface\\hub\\models--HuggingFaceTB--SmolLM2-135M\\snapshots\\93efa2f097d58c2a74874c7e644dbc9b0cee75a2\\
model.safetensors"
safetensors_to_bin(inputx, 'model_converted.bin')?
轉換之后,發現沒有那些配置文件啊
把ollama的整個模型存儲目錄暴露給LMStudio,加載模式還是報錯:
No LM Runtime found for model format 'gguf'!
估計真正的問題,是cpu只支持avx,不支持avx2導致的。也就是架構不支持,Not Compatible的問題。
暫時擱置。
添加國內Huggingface鏡像
發現LMStudio不能到Huggingface下載模型,整個軟件都失去了使用意義。于是決定換鏡像,也就是把huggingface.co
?替換為國內鏡像站?hf-mirror.com
。
以Windows下為例,到LMStudio的安裝目錄,比如:E:\Program Files\LM Studio\resources\app 目錄下,搜索包含hugg字符的文件,搜索到index.js和main_window.js兩個文件:
點開編輯這兩個文件,在文件中查找huggingface.co字符,替換成hf-mirror.com 。
index.js文件中有9處替換,main_window.js中有113處替換。?
替換完畢,重新啟動LMStudio軟件。
測試下載失敗,可能是硬件不符合要求,導致找不到可以下載的模型。
最簡單的解決方案
在LMStudio的設置中,可以勾選:
Use LM Studio's Hugging Face Proxy
據說這是專為上不去HuggingFace的人專設的,大家可以去試試。
我這邊沒有改觀,可能是硬件不符合要求導致。
總結
LMStudio?是一個非常不錯的用于在本地計算機開發和實驗LLM大模型,并可以同時提供LLM API調用服務的桌面程序。就像普通的Windows程序一樣非常易于使用。
但是如果不能科學上網的話,它的易用性就大打折扣了。但是官方也注意到這件事,所以大家可以試試最簡單的那個解決方案。