ubuntu 22.04 anaconda comfyui安裝

背景:

戴爾R740服務器,安裝了proxmox操作系統,配置了顯卡直通。創建了一個ubuntu 22.04 VM虛擬機實例,并安裝了顯卡驅動與cuda等相關配置:

接下來準備搭建一套comfyui的環境,前段時間B站,抖音各種刷到相關視頻,自己也想玩一下!

ubuntu 22.04 anaconda comfyui

可以參考官方網站:https://docs.comfy.org/zh-CN/installation/manual_install

對于 ComfyUI 的安裝, 主要分為幾個步驟

  1. 創建一個虛擬環境(避免污染系統級 Python 環境)
  2. 克隆 ComfyUI 代碼倉庫
  3. 安裝依賴
  4. 啟動 ComfyUI

安裝anaconda并配置虛擬環境

獨立的虛擬環境是必要的,因為 ComfyUI 的依賴可能會與系統上的其他依賴沖突,也可以避免對系統級 Python 環境的污染。這里選擇了使用anaconda安裝python環境:

下載安裝anaconda

通過訪問:https://repo.anaconda.com/archive/ 選擇對應安裝程序:

下載并運行安裝腳本:(在ubuntu 22.04 VM虛擬機實例上,這里使用了xshell遠程連接)

wget https://repo.anaconda.com/archive/Anaconda3-2024.10-1-Linux-x86_64.sh
bash Anaconda3-2024.10-1-Linux-x86_64.sh

全部默認yes yes 一路回車:

anaconda加入系統環境變量:

其實這里已經加入了 <font style="color:rgb(77, 77, 77);">~/.bashrc</font>文件來激活安裝

source ~/.bashrc
conda list

安裝后的一些配置:

鑒于源的訪問問題,配置源為清華源:

conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/conda config --set show_channel_urls yespip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

創建comfyui的 python虛擬環境:

創建python 3.12的comfyui的運行環境,并進入該運行環境:

conda create -n comfyui python=3.12
conda activate comfyui

驗證python的版本:

ubuntu系統的一些其他配置:

使用如下命令查看當前的分區狀況:

lsblk

我在創建VM實例的時候明明分配了1.5T這里的根/默認的只有100G,需要處理一下(估計后續1.5T也不夠需要擴容磁盤):

查看當前PV配置:

使用**pvdisplay **查看當前PV配置:

pvdisplay

分配剩余空間給根目錄:

將卷組ubuntu-vg(VG)中所有剩余空間(+100%FREE)分配給名為ubuntu-lv的邏輯卷(LV),并使用r**esize2fs **命令調整文件系統以匹配新容量:

sudo lvextend -l +100%FREE /dev/ubuntu-vg/ubuntu-lv
df -Th /
sudo resize2fs /dev/ubuntu-vg/ubuntu-lv

驗證擴容:

使用如下命令驗證lv擴容成功:

df -h
lsblk

comfyui的安裝

參照官方網站:https://docs.comfy.org/zh-CN/installation/manual_install.

克隆倉庫:

這里使用git克隆的方式安裝(默認git已經安裝),個人喜歡目錄使用/data安裝軟件:

mkdir /data
cd /data
git clone https://github.com/comfyanonymous/ComfyUI.git

安裝GPU 及 ComfyUI 依賴

可以參照github倉庫README.md,安裝GPU依賴:

cd /data/ComfyUI
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu128

安裝 ComfyUI 依賴:

pip install -r requirements.txt

注意:執行命令的目錄,必須是comfyui 的相對路徑下,如我的目錄絕對路徑是/data/ComfyUI!

啟動 ComfyUI

進入ComfyUI目錄,執行如下啟動命令,等待comfyui啟動:

cd /data/ComfyUI
python main.py --port 15070 --listen 0.0.0.0

通過瀏覽器訪問安裝comfyui應用的VM實例主機的15070端口,可以看到如下頁面:

運行默認的工作流,會報如下錯誤:

模型缺失,需要下載該模型到 models目錄下,我這里直接使用了魔搭社區

通過該社區這里下載了模型:https://www.modelscope.cn/models/stabilityai/stable-diffusion-2-inpainting/files(否則就要通過科學上網,這里就偷懶了)

右擊模型文件右側下載,復制連接。獲得下載地址,下載模型到Comfyui模型目錄下:

cd /data/ComfyUI/models/checkpoints/
wget  https://www.modelscope.cn/models/stabilityai/stable-diffusion-2-inpainting/resolve/master/512-inpainting-ema.ckpt

kill掉comfyui進程 ,重啟comfyui程序:

一般的方式是ps -aux獲取進程號,然后kill -9殺掉進程

也可以通過下面的方式殺死進程:

kill -9 $(ps aux | grep 'python main.py --port 15070 --listen 0.0.0.0' | grep -v grep | awk '{print $2}')

然后重新啟動comfyui:

python main.py --port 15070 --listen 0.0.0.0

刷新瀏覽器重新運行工作量可以正常運行:

其他的一些配置

將comfyui注冊為系統服務

每次使用命令啟動comfyui的方式很不方便對服務的管理與維護,現在我們將comfyui注冊為系統服務,通過systemctl管理comfyui:

vi /etc/systemd/system/comfyui.service

[Unit]
Description=ComfyUI Stable Diffusion Service
After=network.target
StartLimitIntervalSec=60[Service]
Type=simple
User=root
WorkingDirectory=/data/ComfyUI
Environment="PATH=/root/anaconda3/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin"
ExecStart=/bin/bash -c 'source /root/anaconda3/etc/profile.d/conda.sh && conda activate comfyui && exec python main.py --port 15070 --listen 0.0.0.0'
Restart=always
RestartSec=5
StandardOutput=journal
StandardError=journal
SyslogIdentifier=comfyui
ProtectSystem=full
PrivateTmp=true
NoNewPrivileges=true
LimitNOFILE=65536[Install]
WantedBy=multi-user.target

重新加載 systemd 管理的服務單元文件,并嘗試啟動comfyui:

systemctl daemon-reload
systemctl start comfyui.service

通過如下命令確認服務正常啟動:

ps -aux|grep python
systemctl status comfyui.service 

并進一步使用瀏覽器可以正常訪問服務:

注意:這里的15070端口可以通過個人喜好修改service文件中中啟動命令的端口!

comfyui安裝常用插件:

為了方便使用comfyui,需要安裝一些常用的插件,如:comfyui-manager ComfyUI-Custom-Scripts等插件,請注意:插件的安裝目錄是ComfyUI 目錄下的custom_nodes目錄,ComfyUI-Manager 下載到本地目錄名需要替換成小寫,具體可以參照github文檔!

cd /data/ComfyUI/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager comfyui-manager
git clone https://github.com/pythongosssss/ComfyUI-Custom-Scripts.git

重啟comfyui服務,等待服務重啟:

systemctl restart comfyui.service
systemctl status comfyui.service
journalctl -u comfyui -f

通過瀏覽器訪問comfyui,主要看ComfyUI-Manager這個插件,后續的插件模型可以通過這里去下載:

點擊Costom Nodes manager 可以搜索下載插件,其他英文名詞可以自行翻譯:

代理相關

由于comfyui下載插件很多插件要放我github,模型的下載也需要訪問HuggingFace。我局域網有一臺cvm安裝了科學上網工具,就在安裝comfyui的設備上面需要加入變量的方式科學上網:

  export http_proxy=http://192.168.0.31:20171export http_proxys=http://192.168.0.31:20171

不使用了 還要unset 。直接將其封裝了一個service:

cat /etc/systemd/system/proxy.service

[Unit]
Description=Proxy Environment Variables Service
Documentation=https://example.com
After=network.target[Service]
Type=oneshot
RemainAfterExit=yes
Environment="PROXY_URL=http://192.168.0.31:20171"ExecStart=/bin/sh -c "\systemctl set-environment http_proxy=${PROXY_URL} && \systemctl set-environment https_proxy=${PROXY_URL} && \systemctl set-environment HTTP_PROXY=${PROXY_URL} && \systemctl set-environment HTTPS_PROXY=${PROXY_URL} && \echo 'Proxy enabled: ${PROXY_URL}'"ExecStop=/bin/sh -c "\systemctl unset-environment http_proxy && \systemctl unset-environment https_proxy && \systemctl unset-environment HTTP_PROXY && \systemctl unset-environment HTTPS_PROXY && \echo 'Proxy disabled'"ExecReload=/bin/sh -c "\systemctl set-environment http_proxy=${PROXY_URL} && \systemctl set-environment https_proxy=${PROXY_URL} && \systemctl set-environment HTTP_PROXY=${PROXY_URL} && \systemctl set-environment HTTPS_PROXY=${PROXY_URL} && \echo 'Proxy reloaded: ${PROXY_URL}'"# 解決status卡住問題的配置
StandardOutput=journal
TimeoutStopSec=5[Install]
WantedBy=multi-user.target

重新加載 systemd 管理的服務單元文件,并嘗試啟動proxy:

systemctl daemon-reload
systemctl start proxy.service

通過如下命令確認服務正常啟動:

systemctl status proxy.service

關閉代理服務則輸入stop 關閉proxy服務:

systemctl stop proxy.service
systemctl status proxy.service

當然關于模型的下載也可以使用ModelScope魔搭社區等實現。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/bicheng/89298.shtml
繁體地址,請注明出處:http://hk.pswp.cn/bicheng/89298.shtml
英文地址,請注明出處:http://en.pswp.cn/bicheng/89298.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

每日面試題04:volatile字段的原理

在之前面試題02ConcurrentHashMap的底層原理中提到了volatile修飾符&#xff0c;在多線程編程的世界里&#xff0c;數據同步是一道繞不開的坎。當多個線程同時操作共享變量時&#xff0c;“看不見對方的修改”或“代碼順序錯亂”往往會導致程序行為異常。而 volatile作為 Java …

【云原生網絡】Istio基礎篇

文章目錄概述基礎知識技術架構概述數據平面核心組件網絡代理Envoy控制平面核心組件xDS協議Pilot組件其他概述參考博客&#x1f60a;點此到文末驚喜?? 概述 基礎知識 背景知識 服務網格&#xff08;Service Mesh&#xff09;&#xff1a;獨立于應用程序的基礎設施層&#x…

PySpark Standalone 集群

一、PySpark Standalone 集群概述PySpark Standalone 集群是 Apache Spark 的一種部署模式&#xff0c;它不依賴于其他資源管理系統&#xff08;如 YARN 或 Mesos&#xff09;&#xff0c;而是使用 Spark 自身的集群管理器。這種模式適合快速部署和測試&#xff0c;尤其在開發和…

圖像質量評價(Image Quality Assessment,IQA)

文章目錄圖像質量評價&#xff08;Image Quality Assessment&#xff0c;IQA&#xff09;一、評估方式&#xff1a;主觀評估 客觀評估1.1、主觀評估方式1.2、客觀評估方式&#xff1a;全參考 半參考 無參考&#xff08;1&#xff09;全參考的方法對比&#xff08;Full-Refer…

【跟我學YOLO】(2)YOLO12 環境配置與基本應用

歡迎關注『跟我學 YOLO』系列 【跟我學YOLO】&#xff08;1&#xff09;YOLO12&#xff1a;以注意力為中心的物體檢測 【跟我學YOLO】&#xff08;2&#xff09;YOLO12 環境配置與基本應用 【跟我學YOLO】&#xff08;3&#xff09;YOLO12 用于診斷視網膜病變 【跟我學YOLO】&a…

Python爬蟲實戰:研究openpyxl庫相關技術

1. 引言 在當今數字化時代,互聯網上蘊含著海量有價值的數據。如何高效地獲取這些數據并進行分析處理,成為數據科學領域的重要研究方向。網絡爬蟲作為一種自動化的數據采集工具,可以幫助我們從網頁中提取所需的信息。而 openpyxl 作為 Python 中處理 Excel 文件的優秀庫,能…

Redis學習其一

文章目錄1.NoSQL概述1.1概述1.2Nosql的四大分類2.Redis入門2.1概述2.2基礎知識2.2.1基礎命令/語法2.2.2Redis為什么單線程還這么快2.3性能測試3.五大數據類型3.1Redis-key3.2String(字符串)3.3List(列表)3.4Set(集合)3.5Hash&#xff08;哈希&#xff09;3.6Zset&#xff08;有…

高性能架構模式——高性能緩存架構

目錄 一、引入前提二、緩存架構的設計要點2.1、緩存穿透2.1.1、緩存穿透第一種情況:存儲數據不存在2.1.2、緩存穿透第二種情況:緩存數據生成耗費大量時間或者資源2.2、緩存雪崩2.2.1、解決緩存雪崩的第一種方法:更新鎖機制2.2.2、解決緩存雪崩的第二種方法:后臺更新機制2.3…

ubuntu+windows雙系統恢復

文章目錄前言一、恢復windows1.直接在grub命令行輸入exit退出2.手動查找windows引導文件先ls列出所有磁盤和分區查找各個分區是否包含引導文件設置引導分區以及引導文件路徑啟動windows二、在windows系統下刪除Ubuntu殘留引導文件三、準備ubuntu系統引導盤四、安裝ubuntu系統五…

使用Dify構建HR智能助理,深度集成大模型應用,賦能HR招聘管理全流程,dify相關工作流全開源。

HR智能助理系統 &#x1f4cb; 項目概述 HR智能助理系統是一個基于AI技術的人力資源管理平臺&#xff0c;旨在通過智能化工具提升招聘效率&#xff0c;優化候選人評估流程&#xff0c;并提供專業的面試方案生成服務。 &#x1f3af; 核心價值 提升招聘效率60%&#xff1a;自動化…

PowerBI實現僅在需要圖表時顯示圖表

PowerBI實現僅在需要圖表時顯示圖表實現效果點擊維度前&#xff1a;點擊維度后&#xff1a;實現步驟第一步&#xff0c;先創建一個矩陣表和一個柱形圖第二步&#xff0c;添加一個新卡片圖第三步&#xff0c;創建文本度量值Text "? 選擇一個地區"第四步&#xff0c;創…

信息收集知識總結

信息收集 在信息收集中&#xff0c;需要收集的信息&#xff1a;目標主機的DNS信息、目標IP地址、子域名、旁站和C段、CMS類型、敏感目錄、端口信息、操作系統版本、網站架構、漏洞信息、服務器與中間件信息、郵箱、人員、地址等。 域名信息收集 拿到公司名或者一個域名&…

工作第一步建立連接——ssh

照本宣科 SSH&#xff08;Secure Shell&#xff0c;安全外殼協議&#xff09;是一種用于在不安全網絡上進行安全遠程登錄和實現其他安全網絡服務的協議.功能主要是遠程登陸和文件傳輸&#xff08;使用scp&#xff09; 為了建立 SSH 遠程連接&#xff0c;需要兩個組件&#xf…

Markdown變身Word,解鎖格式轉換新姿勢

目錄一、引言二、在線轉換工具使用法2.1 工具推薦2.2 操作步驟2.3 優缺點分析三、文本編輯器的內置功能或插件3.1 適用編輯器列舉3.2 以 Visual Studio Code 為例的操作流程3.3 優勢說明四、使用專門的轉換軟件4.1 Pandoc 軟件介紹4.2 安裝步驟4.3 命令行轉換操作五、編程腳本實…

MR 處于 WIP 狀態的WIP是什么

WIP是什么 在MR&#xff08;Merge Request 或代碼合并請求&#xff09;中&#xff0c;WIP 是"Work In Progress" 的縮寫&#xff0c;意思是“正在進行中”或“在制品”。當一個MR 被標記為WIP&#xff0c;通常表示它尚未準備好被合并&#xff0c;可能還在開發中&…

機器學習-線性回歸模型和梯度算法

1. 線性回歸模型1.1 線性回歸模型線性回歸模型&#xff1a;將數據擬合成一條直線。作用&#xff1a;預測數字作為輸出。例子&#xff1a;房子的大小與房價的估計&#xff08;圖表&#xff09;&#xff08;數據表&#xff09;1.2 訓練集訓練集&#xff1a;用于訓練模型的數據集訓…

時序預測 | Matlab代碼實現VMD-TCN-GRU-MATT變分模態分解時間卷積門控循環單元多頭注意力多變量時序預測

預測效果代碼功能 代碼主要功能 該代碼實現了一個變分模態分解時間卷積門控循環單元多頭注意力多變量時間序列預測模型&#xff0c;核心功能為&#xff1a; 使用VMD&#xff08;變分模態分解&#xff09;將原始信號分解為多個IMF分量對每個IMF分量構建TCN-GRU-MATT混合神經網絡…

HTML5 離線存儲

HTML5 離線存儲&#xff08;通常指 Application Cache&#xff09;是早期用于實現 Web 應用離線訪問的技術&#xff0c;但由于其設計缺陷已被廢棄。現代 Web 開發中&#xff0c;取而代之的是更強大的 Service Worker Cache API 方案&#xff08;屬于 Progressive Web Apps 技術…

JavaScript 性能優化實戰:深入性能瓶頸,精煉優化技巧與最佳實踐

前言 現代前端開發&#xff0c;不僅要“能跑”&#xff0c;更要“跑得快”。在用戶體驗為王的時代&#xff0c;JavaScript 性能優化已經成為前端工程師的必修課。 為什么要關注 JavaScript 性能 加載緩慢 → 用戶流失卡頓滯后 → 交互體驗崩潰資源浪費 → 設備電量與內存被吞…

文心4.5開源背后的戰略棋局:百度為何選擇All in開放?

文章目錄引言&#xff1a;一場顛覆AI行業格局的孤注國內開源模型的崛起與威脅國際競爭格局的重塑1.技術維度&#xff1a;開源是突破模型性能瓶頸的“加速器”1.1 閉源模型的“內卷化”困境1.2 文心4.5的開源技術架構&#xff1a;從“黑箱”到“樂高”1.2.1文心4.5的技術創新1.2…