【LLM】本地部署LLM大語言模型+可視化交互聊天,附常見本地部署硬件要求(以Ollama+OpenWebUI部署DeepSeekR1為例)

【LLM】本地部署LLM大語言模型+可視化交互聊天,附常見本地部署硬件要求(以Ollama+OpenWebUI部署DeepSeekR1為例)

文章目錄

    • 1、本地部署LLM(以Ollama為例)
    • 2、本地LLM交互界面(以OpenWebUI為例)
    • 3、本地部署硬件要求對應表

1、本地部署LLM(以Ollama為例)

本地部署LLM的框架

  • 129k-Ollama 1
    是一個提供簡單命令行接口的工具,可以輕松下載和運行本地 AI 模型。
  • 139k-Transformers 2
    Hugging Face 的 Transformers 庫支持多種預訓練語言模型,并提供簡單的 API 以在本地運行這些模型,適合進行微調和推理。
  • 75k-llama.cpp, 3
    CPU友好,一個高效的 C++ 實現,支持在各種設備上運行 LLaMA 模型,適合追求性能的用戶。
  • 39k-vllm, link
    GPU優化,vLLM 是一個高效的、用于推理的框架,特別針對大型語言模型的并行推理進行優化。它利用了內存和計算資源的高效管理,提供了顯著的性能提升。
  • 69k-stable-diffusion,link
    雖然主要用于圖像生成,它也在開源領域取得了極大的關注,且可以靈活地與文本模型結合使用。

ollama是什么

  • Ollama 是一個用于構建和運行本地 AI 模型的開源工具。
  • 它可以幫助開發者和研究人員更方便地利用 AI 模型進行各種應用,如自然語言處理、圖像識別等。
    在這里插入圖片描述

下載ollama

  • 要安裝Ollama,可以官方網站的下載頁面:Ollama下載頁面
  • 支持的模型列表
  • 參考安裝 1
    在這里插入圖片描述

使用ollama

ollama     
Usage:ollama [flags]ollama [command]Available Commands:serve       Start ollamacreate      Create a model from a Modelfileshow        Show information for a modelrun         Run a modelstop        Stop a running modelpull        Pull a model from a registrypush        Push a model to a registrylist        List modelsps          List running modelscp          Copy a modelrm          Remove a modelhelp        Help about any commandFlags:-h, --help      help for ollama-v, --version   Show version informationUse "ollama [command] --help" for more information about a command.

例子,安裝deepseek r1

# ollma --version
ollama version is 0.5.12# ollama pull deepseek-r1:1.5b
pulling manifest 
pulling aabd4debf0c8... 100% ▕██████████████████████████████████▏ 1.1 GB                         
pulling 369ca498f347... 100% ▕██████████████████████████████████▏  387 B                         
pulling 6e4c38e1172f... 100% ▕██████████████████████████████████▏ 1.1 KB                         
pulling f4d24e9138dd... 100% ▕██████████████████████████████████▏  148 B                         
pulling a85fe2a2e58e... 100% ▕██████████████████████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success # ollama run deepseek-r1:1.5b
# ollama run llama3.2:1b# ollama list
NAME                ID              SIZE      MODIFIED      
llama3.2:1b         baf6a787fdff    1.3 GB    3 minutes ago    
deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    2 hours ago# systemctl stop ollama

2、本地LLM交互界面(以OpenWebUI為例)

本地LLM交互界面項目

  • 78k-OpenWebUI, link
    OpenWebUI是一個開源Web用戶界面,旨在讓用戶能夠方便地與本地大語言模型(如GPT、LLaMA等)進行交互。用戶可以通過簡單的Web界面進行對話,支持多種模型。

  • 82k-Nextchat(ChatGPT Next Web) , link
    兼容本地LLM,輕量快速的 AI 助手。支持:Web | iOS | MacOS | Android | Linux | Windows。一鍵免費部署私人 ChatGPT 網頁應用,支持 Claude, GPT4 & Gemini Pro 模型。

  • 32k-ChatBox , link
    Chatbox AI 是一款 AI 客戶端應用和智能助手,支持眾多先進的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和網頁版上使用。
    客戶端安裝參考 1,2:選擇使用自己的api-key或本地模型,目前支持

  • 72k-GPT4All, link
    GPT4All 在日常臺式機和筆記本電腦上私下運行大型語言模型 (LLM)。無需 API 調用或 GPU - 您只需下載應用程序并開始使用即可。

  • 42k-text-generation-webui, link
    適用于大型語言模型的 Gradio Web UI,支持多個推理后端。其目標是成為文本生成的stable-diffusion-webui 。

  • 39k-AnythingLLM, link
    全棧應用程序,可以將任何文檔、資源(如網址鏈接、音頻、視頻)或內容片段轉換為上下文,以便任何大語言模型(LLM)在聊天期間作為參考使用。
    此應用程序允許您選擇使用哪個LLM或向量數據庫,同時支持多用戶管理并設置不同權限。

  • 150k-stable-diffusion-webui, link
    支持一鍵安裝的stable Diffusion網頁用戶界面。

  • jetbrain-idea/goland集成插件, link
    設置-插件里安裝后,配置Ollama API 默認調用端口號:11434

OpenWebUI是什么?

  • 一個可擴展、功能豐富且用戶友好的自托管WebUI,它支持完全離線操作,并兼容Ollama和OpenAI的API。
  • 這為用戶提供了一個可視化的界面,使得與大型語言模型的交互更加直觀和便捷。
    在這里插入圖片描述

安裝openwebUI

# 基于docker的安裝
# 電腦上有Ollama
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
# Ollama在其他服務器上,OLLAMA_BASE_URL替換為地址
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main# 安裝完成后,您可以通過http://localhost:3000 訪問OpenWebUI
# 這個時候會發現【Select a model】可以選擇我們剛剛下載好的模型
# 并且他還可以一次性加入多個模型,一起對話對比使用

3、本地部署硬件要求對應表

大模型名稱中的數字含義

  • 例如 1.5b、7b、8b、14b、32b、70b和671b等
  • 這些數字代表模型的參數量(Parameters),單位為 「B」(Billion,十億)。例如:
    1.5B:15 億參數
    7B:70 億參數
    671B:6710 億參數(接近萬億規模)
  • 參數量的意義:
    模型能力:參數量越大,模型就有更強的理解和生成能力,但是需要更多計算資源。
    硬件需求:參數越多,對內存(RAM)和顯存(VRAM)的需求就越高。
    運行速度:參數量大的模型,推理速度更慢,尤其是資源不足的時候。1

本地部署的硬件配置「最低」要求(按模型規模分類)

  • 1.3B、1.5B 模型
    適用場景:簡單文本生成、問答、輕量級任務
    CPU:4 核以上(需支持 AVX2 指令集)
    內存(RAM):8GB 以上
    GPU(可選):顯存 ≥ 4GB(如 NVIDIA GTX 1650)
    存儲:需 3~5GB 硬盤空間(模型文件 + 依賴庫)
    說明:可在純 CPU 環境下運行,但速度較慢(約 1~2 秒/詞)。

  • 6.7b、7B、8B 模型
    適用場景:復雜文本生成、代碼生成、多輪對話
    CPU:8 核以上(推薦 Intel i7 或 AMD Ryzen 7)
    內存(RAM):32GB 以上(純 CPU 運行時需更高內存)
    GPU(推薦):顯存 ≥ 16GB(如 RTX 4090 或 Tesla T4)
    存儲:需 15~20GB 硬盤空間
    優化建議:
    使用 4-bit 量化可將顯存需求降至 8GB。
    使用 vLLM 或 HuggingFace TGI 框架提升推理速度。

  • 32B、70B 模型
    適用場景:企業級應用、高精度需求
    CPU:無法純 CPU 運行
    內存(RAM):≥ 128GB(用于加載中間數據)
    GPU:顯存 ≥ 80GB(如 A100 80GB x2 或 H100)
    存儲:需 70~150GB 硬盤空間
    關鍵點:
    必須使用多卡并行(如 NVIDIA NVLink 互聯)。
    推薦 FP16 或 8-bit 量化以降低顯存占用。

硬件選擇對比表

模型規模CPU 需求內存需求顯卡 型號適用場景
1.5B純 CPU4GBRTX 3050個人學習
7B7GB16GBRTX 4090個人學習
14B24GBA5000 x2264GB小型項目
32B48GBA100 40GBx2專業應用
40GB80GBx4RTX 7000企業級服務
64GB+H100H100640GB+H100集群不可行

一些QA

  • 能否用 Mac 電腦運行這些DeepSeek模型?
    可以,但僅限于小模型(如 7B以下)。需使用 llama.cpp 的 Metal 后端,M1/M2 芯片需 16GB 以上統一內存。
  • 官方倉庫(如 HuggingFace Hub)、開源社區(如 modelscope)。
    如果使用Ollama在本地部署,那么直接在Ollama中下載。
  • 為什么實際顯存占用比參數量大很多?
    除了模型權重,還需存儲中間計算結果(KV Cache),尤其在長文本生成時占用顯著增加。
  • 沒有顯存、顯存的筆記本電腦,能在本地部署和運行DeepSeek嗎?
    可以。但是內存要求更高,文本生成速度慢。1,

更多部署教程
1 從零到一:本地部署Llama3大模型的簡明指南,
2 本地部署 DeepSeek-R1-671B 滿血版大模型教程
3 預算50-100萬:4 * H100 80GB + NVLink,8 * A100 80GB + NVLink

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/diannao/70798.shtml
繁體地址,請注明出處:http://hk.pswp.cn/diannao/70798.shtml
英文地址,請注明出處:http://en.pswp.cn/diannao/70798.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

溫濕度監控設備融入智慧物聯網

當醫院的溫濕度監控設備融入智慧物聯網,將會帶來許多新的體驗,可以幫助醫院溫濕度監控設備智能化管理,實現設備之間的互聯互通,方便醫院對溫濕度數據進行統一管理和分析。 添加智慧物聯網技術,實現對醫院溫濕度的實時…

在ubuntu如何安裝samba軟件?

我們在開發過程中,經常修改代碼,可以安裝samba文件來實現,把ubuntu的存儲空間指定為我們win上的一個磁盤,然后我們在或者磁盤里面創建.c文件,進行代碼修改和編寫。samba能將linux的文件目錄直接映射到windows&#xff…

[ComfyUI]官方已支持Skyreels混元圖生視頻,速度更快,效果更好(附工作流)

一、介紹 昨天有提到官方已經支持了Skyreels,皆大歡喜,效果更好一些,還有GGUF量化版本,進一步降低了大家的顯存消耗。 今天就來分享一下官方流怎么搭建,我體驗下來感覺更穩了一些,生成速度也更快&#xf…

B站pwn教程筆記-3

棧知識、部分保護措施 GDB顯示的棧地址有時候并不是可靠的地址,gdb也是用特殊的進程映像來拿地址的。且gdb默認關閉棧地址隨機化。但是,偏移量是沒有錯誤的。目前還沒學到咋解決 第一個棧幀是main函數棧幀,之前的一些系統函數什么的沒有棧幀…

Qt在Linux嵌入式開發過程中復雜界面滑動時卡頓掉幀問題分析及解決方案

Qt在Linux嵌入式設備開發過程中,由于配置較低,加上沒有GPU,我們有時候會遇到有些組件比較多的復雜界面,在滑動時會出現掉幀或卡頓的問題。要講明白這個問題還得從CPU和GPU的分工說起。 一、硬件層面核心問題根源剖析 CPU&#x…

Spring Boot 項目中,JDK 動態代理和 CGLIB 動態代理的使用

在 Spring Boot 項目中,JDK 動態代理和 CGLIB 動態代理都是實現 AOP (面向切面編程) 的重要技術。 它們的主要區別在于代理對象的生成方式和適用范圍。 下面詳細介紹它們的使用場景: 1. JDK 動態代理 (JDK Dynamic Proxy) 原理: JDK 動態代理…

OpenCV計算攝影學(2)圖像去噪函數denoise_TVL1()

操作系統:ubuntu22.04 OpenCV版本:OpenCV4.9 IDE:Visual Studio Code 編程語言:C11 算法描述 原始-對偶算法是用于解決特定類型變分問題(即,尋找一個函數以最小化某個泛函)的算法。特別地,圖像…

在 Windows 下的 Docker 中安裝 R語言

以下是在 Windows 系統的 Docker 中安裝 R 語言的詳細教程,包括 Docker 的安裝、配置以及如何在容器中運行 R 語言的步驟。 步驟 1:安裝 Docker 下載 Docker Desktop 訪問 Docker 官方網站:Docker Desktop: The #1 Containerization Tool for…

【數據挖掘在量化交易中的應用:特征發現與特征提取】

好的,我將撰寫一篇關于金融領域數據挖掘的技術博客,重點闡述特征發現和特征提取,特別是在量化交易中的應用。我會提供具體的實操步驟,并結合Python和TensorFlow進行代碼示例。 完成后,我會通知您進行查看。 數據挖掘…

如何在視頻中提取關鍵幀?

在視頻處理中,提取關鍵幀是一項常見的任務。下面將介紹如何基于FFmpeg和Python,結合OpenCV庫來實現從視頻中提取關鍵幀的功能。 實現思路 使用FFmpeg獲取視頻的關鍵幀時間戳:FFmpeg是一個強大的視頻處理工具,可以通過命令行獲取…

九、數據治理架構流程

一、總體結構 《數據治理架構流程圖》(Data Governance Architecture Flowchart) 水平結構:流程圖采用水平組織,顯示從數據源到數據應用的進程。 垂直結構:每個水平部分進一步劃分為垂直列,代表數據治理的…

Docker 搭建 Gitlab 服務器 (完整詳細版)

參考 Docker 搭建 Gitlab 服務器 (完整詳細版)_docker gitlab-CSDN博客 Docker 安裝 (完整詳細版)_docker安裝-CSDN博客 Docker 日常命令大全(完整詳細版)_docker命令-CSDN博客 1、Gitlab鏡像 # 查找Gitlab鏡像 docker search gitlab # 拉取Gitlab鏡像 docker pull gitlab/g…

Spring MVC 框架學習筆記:從入門到精通的實戰指南

目錄 1. Spring MVC 概述 2. Spring MVC 項目搭建 3. Spring MVC 執行流程 4. Spring MVC RequestMapping 注解 5. Spring MVC 獲取請求參數 6. Spring MVC 常見注解 7. Spring MVC 響應處理 8. Spring MVC SSM 整合 9. Spring MVC 作用域傳參 10. Spring MVC 上傳 1…

RK3568開發筆記-AD7616調試筆記

目錄 前言 一、AD7616介紹 高分辨率 高速采樣速率 寬模擬輸入范圍 集成豐富功能 二、原理圖連接 三、設備樹配置 四、內核驅動配置 五、AD芯片測試 總結 前言 在嵌入式數據采集領域,將模擬信號精準轉換為數字信號至關重要。AD7616 作為一款性能卓越的 16 位模數轉換器…

【對話推薦系統】Towards Topic-Guided Conversational Recommender System 論文閱讀

Towards Topic-Guided Conversational Recommender System 論文閱讀 Abstract1 Introduction2 Related Work2.1 Conversation System2.2 Conversational Recommender System2.3 Dataset for Conversational Recommendation 3 Dataset Construction3.1 Collecting Movies for Re…

ASP.NET Core 8.0學習筆記(二十八)——EFCore反向工程

一、什么是反向工程 1.原則:DBFirst 2.反向工程:根據數據庫表來反向生成實體類 3.生成命令:Scaffold-DbContext ‘連接字符串’ 字符串示例: Server.;DatabaseDemo1;Trusted_Connectiontrue; MultipleActiveResultSets true;Tru…

springcloud和dubbo的區別

Spring Cloud和Dubbo作為微服務架構中非常流行的兩個框架,它們在多個方面存在顯著的區別。以下是對兩者區別的詳細分析: 1. 初始定位和生態環境 Spring Cloud:定位為微服務架構下的一站式解決方案,依托于Spring平臺,…

【大模型LLM】DeepSeek LLM Scaling Open-Source Language Models with Longtermism

深度探索LLM:以長期主義擴展開源語言模型 0.論文摘要 開源大語言模型(LLMs)的快速發展確實令人矚目。然而,以往文獻中描述的擴展規律得出了不同的結論,這為LLMs的擴展蒙上了一層陰影。我們深入研究了擴展規律&#…

C#快速調用DeepSeek接口,winform接入DeepSeek查詢資料 C#零門檻接入DeepSeek C#接入DeepSeek源代碼下載

下載地址<------完整源碼 在數字化轉型加速的背景下&#xff0c;企業應用系統對智能服務的需求日益增長。DeepSeek作為先進的人工智能服務平臺&#xff0c;其自然語言處理、圖像識別等核心能力可顯著提升業務系統的智能化水平。傳統開發模式下&#xff0c;C#開發者需要耗費大…

Qt常用控件之多行輸入框QTextEdit

多行輸入框QTextEdit QTextEdit 是一個多行輸入框控件&#xff0c;支持富文本和 markdown 格式&#xff0c;當文本內容超出編輯框的范圍時能自動提供滾動條。 QPlainTextEdit 是只支持富文本格式的多行輸入框&#xff0c;屬性和使用上與 QTextEdit 幾乎沒有區別。 QTextEdit屬…