昨天刷B站看到復旦趙斌老師說的一句話“科幻電影里在人腦中植入芯片或許在當下無法實現,但當下可以借助AI人工智能實現人類第二腦”(大概是這個意思)
💞更多內容,可關注公眾號“ 一名程序媛 ”,我們一起從 0 - 1 學編程💞
基本概念
AI
人工智能NLP
自然語言處理LLM
大語言模型Hugging Face
一個提供了豐富的預訓練模型和工具庫的平臺網站Ollama
開源的本地大語言模型運行框架,用來在本地部署調用大語言模型,如DeepSeek-R1
vLLM
一個專注于高性能LLM推理的工具,也可以調用大語言模型,還可作模型文件轉化或量化操作llama.cpp
基于純C/C++
實現的高性能大語言模型推理引擎,專為優化本地及云端部署而設計,上面的Ollama
即是在此基礎上的封裝和優化Chatbox
為大語言模型對話提供人機界面交互功能,當然也可使用純命令行方式,隨個人喜好
量化
一種通過降低模型參數的表示精度來減少模型大小和計算需求的方法
常用的模型文件格式
safetensors
- 由Hugging Face
推出的一種新型安全模型存儲格式,特別關注模型安全性、隱私保護和快速加載,僅包含張量的文件格式 ,如model-00001-of-000002.safetensors
GGUF All-in-one
二進制模型文件 ,如DeepSeek-R1-Distill-Qwen-7B-Q3_K_L.gguf
Q(Quantization)
量化(壓縮),后面的數值表示“單個參數的平均bit
數”,數值越大越智能K(K Quant)
即多個參數組合一Block
做壓縮,初衷是在同一個壓縮級別上再補償些精度回來S L M
等用于區分混合精度的程度,字母順序越小越精簡
💞更多內容,可關注公眾號“ 一名程序媛 ”,我們一起從 0 - 1 學編程💞