去年已經使用過chattts了,但是昨晚想用的時候卻記怎么打開了,找了一下以前的筆記
MacOS 下源碼部署chat-tts-ui
-
配置好 python3.9-3.11 環境,安裝git ,執行命令
brew install libsndfile git
-
python@3.10
繼續執行brew install ffmpeg ? export PATH="/usr/local/opt/python@3.10/bin:$PATH" ? source ~/.bash_profile ? source ~/.zshrc
-
創建空目錄
/data/chattts
執行命令cd /data/chattts && git clone https://github.com/jianchang512/chatTTS-ui .
-
我的路徑是/Users/lin/Documents/chattts/data/chatts/chatTTS-ui
-
創建虛擬環境
python3.10?-m venv venv
-
激活虛擬環境
source ./venv/bin/activate
-
安裝依賴
pip3 install -r requirements.txt
-
安裝torch
pip3 install torch==2.2.0 torchaudio==2.2.0
-
執行
python3 app.py
啟動,將自動打開瀏覽器窗口,默認地址,如果跳轉到了0.0.0.0:9966沒聯網的情況下可以輸入?http://127.0.0.1:9966
(注意:默認從 modelscope 魔塔下載模型,不可使用代理下載,請關閉代理)
?
Linux 下容器部署
安裝
-
拉取項目倉庫
在任意路徑下克隆項目,例如:
git clone https://github.com/jianchang512/ChatTTS-ui.git chat-tts-ui
-
啟動 Runner
進入到項目目錄:
cd chat-tts-ui
啟動容器并查看初始化日志:
gpu版本 docker compose -f docker-compose.gpu.yaml up -d ? cpu版本 ? ? docker compose -f docker-compose.cpu.yaml up -d ? docker compose logs -f --no-log-prefix
-
訪問 ChatTTS WebUI
啟動:['0.0.0.0', '9966']
,也即,訪問部署設備的IP:9966
即可,例如:-
本機:
http://127.0.0.1:9966
-
服務器:
http://192.168.1.100:9966
-
更新
-
Get the latest code from the main branch:
git checkout main git pull origin main
-
Go to the next step and update to the latest image:
docker compose down ? gpu版本 docker compose -f docker-compose.gpu.yaml up -d --build ? cpu版本 docker compose -f docker-compose.cpu.yaml up -d --build ? docker compose logs -f --no-log-prefix
Linux 下源碼部署
-
配置好 python3.9-3.11環境,安裝 ffmpeg。
yum install ffmpeg
或apt-get install ffmpeg
等 -
創建空目錄
/data/chattts
執行命令cd /data/chattts && git clone https://github.com/jianchang512/chatTTS-ui .
-
創建虛擬環境
python3 -m venv venv
-
激活虛擬環境
source ./venv/bin/activate
-
安裝依賴
pip3 install -r requirements.txt
-
如果不需要CUDA加速,執行
pip3 install torch==2.2.0 torchaudio==2.2.0
如果需要CUDA加速,執行
pip install torch==2.2.0 torchaudio==2.2.0 --index-url https://download.pytorch.org/whl/cu118 ? pip install nvidia-cublas-cu11 nvidia-cudnn-cu11
另需安裝 CUDA11.8+ ToolKit,請自行搜索安裝方法 或參考 https://juejin.cn/post/7318704408727519270
除CUDA外,也可以使用AMD GPU進行加速,這需要安裝ROCm和PyTorch_ROCm版本。AMG GPU借助ROCm,在PyTorch開箱即用,無需額外修改代碼。
-
請參考Quick start installation guide — ROCm installation (Linux) 來安裝AMD GPU Driver及ROCm.
-
再通過PyTorch 安裝PyTorch_ROCm版本。
pip3 install torch==2.2.0 torchaudio==2.2.0 --index-url https://download.pytorch.org/whl/rocm6.0
安裝完成后,可以通過rocm-smi命令來查看系統中的AMD GPU。也可以用以下Torch代碼(query_gpu.py)來查詢當前AMD GPU Device.
import torch ? print(torch.__version__) ? if torch.cuda.is_available():device = torch.device("cuda") ? ? ? ? # a CUDA device objectprint('Using GPU:', torch.cuda.get_device_name(0)) else:device = torch.device("cpu")print('Using CPU') ? torch.cuda.get_device_properties(0)
使用以上代碼,以AMD Radeon Pro W7900為例,查詢設備如下。
$ python ~/query_gpu.py ? 2.4.0.dev20240401+rocm6.0 ? Using GPU: AMD Radeon PRO W7900
-