昇騰DeepSeek模型部署優秀實踐及FAQ

2024年12月26日,DeepSeek-V3橫空出世,以其卓越性能備受矚目。該模型發布即支持昇騰,用戶可在昇騰硬件和MindIE推理引擎上實現高效推理,但在實際操作中,部署流程與常見問題困擾著不少開發者。本文將為你詳細闡述昇騰 DeepSeek 模型部署的優秀實踐,同時解答常見問題。

DeepSeek在昇騰上的模型部署優秀實踐

01硬件要求及組網

推薦參考配置如下,部署DeepSeek-V3/R1量化模型至少需要多節點Atlas 800I A2(8*64G)服務器。本方案以DeepSeek-R1為主進行介紹,DeepSeek-V3與R1的模型結構和參數量一致,部署方式與R1相同。

image.png

02運行環境準備

推薦使用鏡像部署

1、鏡像部署

昇騰官方在Ascend hub提供環境示例鏡像,含推理部署配套軟件以及模型運行腳本,用戶可參考構建運行環境鏡像進行部署。

鏡像部署及啟動參照ModelZoo指南中“加載鏡像”章節,該指南中還包含“容器啟動”等指引

https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/MindIE/LLM/DeepSeek/DeepSeek-R1#%E5%8A%A0%E8%BD%BD%E9%95%9C%E5%83%8F

鏡像申請/下載(含于上述指南):

https://www.hiascend.com/developer/ascendhub/detail/af85b724a7e5469ebd7ea13c3439d48f

image.png

2、裸機部署

根據昇騰社區發布的MindIE安裝指南安裝軟件包和運行依賴軟件。

安裝指南:

根據指南安裝全部軟件包和環境

https://www.hiascend.com/document/detail/zh/mindie/100/envdeployment/instg/mindie_instg_0001.html

模型獲取:

https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/MindIE/LLM/DeepSeek/DeepSeek-R1#1-%E5%87%86%E5%A4%87%E6%A8%A1%E5%9E%8B

03權重文件準備

BF16權重下載:

1、HuggingFace:https://huggingface.co/unsloth/DeepSeek-V3-bf16/

2、ModelScope:https://modelscope.cn/models/unsloth/DeepSeek-V3-bf16/

3、Modelers:https://modelers.cn/models/State_Cloud/DeepSeek-V3-BF16

INT8量化后權重下載:https://modelers.cn/models/State_Cloud/DeepSeek-R1-W8A8/tree/main

如已下載BF16模型,也可采用以下步驟進行模型量化,權重BF16->INT8轉換預計7~8小時。

Step1:安裝ModelSlimgit clone https://gitee.com/ascend/msit.gitcd msit/msmodelslimbash install.shStep2: 運行量化命令cd msit/msmodelslim/example/DeepSeek/python3 quant_deepseek_w8a8.py \--model_path {浮點權重路徑} \--save_path {W8A8量化權重路徑}

更多詳細量化教程請參考 DeepSeek 量化文檔( https://gitee.com/ascend/msit/tree/br_noncom_MindStudio_8.0.0_POC_20251231/msmodelslim/example/DeepSeek)

Msmodelslim?代碼倉:https://gitee.com/ascend/msit/tree/br_noncom_MindStudio_8.0.0_POC_20251231/msmodelslim

04運行前檢查

服務器檢查https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/MindIE/LLM/DeepSeek/DeepSeek-R1#%E5%89%8D%E7%BD%AE%E5%87%86%E5%A4%87

軟件版本配套檢查,含:HDK、CANN、PTA、MindIE、MindStudio

1、檢查組網鏈接狀態

a)????檢查物理鏈接

for i in {0..7}; do hccn_tool -i $i -lldp -g | grep Ifname; done

b)????檢查鏈接情況

for i in {0..7}; do hccn_tool -i $i -link -g ; done

c)?????檢查網絡健康情況

for i in {0..7}; do hccn_tool -i $i -net_health -g ; done

d)????查看偵測ip的配置是否正確

for i in {0..7}; do hccn_tool -i $i -netdetect -g ; done

e)????查看網關是否配置正確

for i in {0..7}; do hccn_tool -i $i -gateway -g ; done

f)?????檢查NPU底層tls校驗行為一致性,建議全0

for i in {0..7}; do hccn_tool -i $i -tls -g ; done | grep switch

g)????# NPU底層tls校驗行為置0操作

for i in {0..7};do hccn_tool -i $i -tls -s enable 0;done

2、根據組網設置準備rank_table_file.json

使用多節點推理時,需要將包含設備ip,服務器ip等信息的json文件地址傳遞給底層通信算子。參考如下格式,配置rank_table_file.json:

圖片

05模型部署與配置

獨立模型:

https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/MindIE/LLM/DeepSeek/DeepSeek-R1#%E7%BA%AF%E6%A8%A1%E5%9E%8B%E6%B5%8B%E8%AF%95

服務化部署:

1、運行指南

https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/MindIE/LLM/DeepSeek/DeepSeek-R1#%E6%9C%8D%E5%8A%A1%E5%8C%96%E6%B5%8B%E8%AF%95

2、服務啟動

https://www.hiascend.com/document/detail/zh/mindie/100/mindieservice/servicedev/mindie_service0004.html

3、接口指引

https://www.hiascend.com/document/detail/zh/mindie/100/mindieservice/servicedev/mindie_service0062.html

06模型運行

1、純模型測試

模型腳本已預制在鏡像中,參照以下鏈接即可拉起精度測試及模型測試

https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/MindIE/LLM/DeepSeek/DeepSeek-R1#%E7%BA%AF%E6%A8%A1%E5%9E%8B%E6%B5%8B%E8%AF%95

image.png

2、服務化測試

1、運行指南

https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/MindIE/LLM/DeepSeek/DeepSeek-R1#%E6%9C%8D%E5%8A%A1%E5%8C%96%E6%B5%8B%E8%AF%95

2、服務啟動

https://www.hiascend.com/document/detail/zh/mindie/100/mindieservice/servicedev/mindie_service0004.html

3、常用接口指引

https://www.hiascend.com/document/detail/zh/mindie/100/mindieservice/servicedev/mindie_service0062.html

常見問題及解決方案

01通信錯誤:Hccl execute failed

問題現象:

日志顯示卡(IP地址10.0.3.9)與卡(IP地址10.0.3.17)之間connection fail

查看日志發現出現hccl通信失敗相關日志內容:

image.png

image.png

解決方案:

(1)問題定位前需要先開啟日志生成環境變量:

image.png


算子庫&加速庫&模型庫日志保存路徑:/root/atb/log

CANN日志保存路徑:/root/ascend/log/debug/plog

(2)通過hccn_tool 工具進行連通性檢測,發現出現鏈路down,修復鏈路down的問題后,通信失敗問題解決。

02通信錯誤:Hccl通信超時

可配置以下環境變量,增大超時等待時間。

image.png

03顯存不足:NPU out of memory

問題現象:

在服務化拉起過程中,出現NPU out of memory報錯。

圖片

解決方案:

適當調高NPU_MEMORY_FRACTION環境變量(默認值為0.8),適當調低mindie-service服務化配置文件config.json中maxSeqLen、maxInputTokenLen、maxPrefillBatchSize、maxPrefillTokens、maxBatchSize等參數。

image.png

04推理卡頓:模型加載時間長,可能達到2H及以上

問題現象:

模型部署過程中,推理前的模型加載時間過長,部分極端情況需要等待>2H。

可能原因:

1)用戶場景內存不足導致swap介入;

2)首次加載權重,權重存儲硬件的傳輸速率慢,傳統的HDD或低速SSD或網絡存儲方式存在I/O瓶頸;

3)框架權重加載使用單線程加載;

解決方案:

1)更換NVMe SSD高速存儲硬件;

2)使用內存映射文件mmap加載權重,例如:

Weights = torch.load(“model.bin”,mmap=True);

3)使用并行加載的方式,將權重按層或模塊拆分為多個文件,可google教程

4)減少多線程開銷,設置以下環境變量

?export OMP_NUM_THREADS=1

5)預熱加載,提前預加載模型權重到內存

05推理卡頓:純模型/服務化拉起卡住、停止

image.png

問題現象:

如果free -h中的free內存小于權重大小 / 機器數,純模型拉起會卡死,過一段時間后進程被殺。

根據經驗,可以確保一下free_mem >= (權重大小 / 機器數) * 1.3 (該計算方式待驗證,但需要確保內存足夠)

解決方案:重啟/釋放緩存。

推薦使用釋放緩存的方式,可以在容器內運行以下指令:

sync; echo 3 > /proc/sys/vm/drop_caches

注意,每次跑完模型,請檢查一下機器的host側內存占用。

06推理卡頓:首Curl請求卡死

問題現象:在服務化成功啟動后出現首次curl請求發送后,無返回的現象;或者服務化拉起卡死的現象。

可能原因:多節點的服務化config.json有區別,或是除了需要寫本機信息外的環境變量不一樣。

1、例如,A、B兩個8卡節點的服務化配置文件中,A配置了interNodeTLSEnabled=true,B配置了interNodeTLSEnbal=false。

2、容器A的環境變量中未設置確定性計算相關環境變量,容器B的環境變量中卻有確定性計算相關的環境變量。盡管執行推理請求的節點確定性計算相關的環境變量是關閉狀態,仍可能影響推理卡住。

#?確定性計算環境變量

export ? HCCL_DETERMINISTIC=false

所以,請一定要一一核對好每個8卡容器內的環境變量是一樣的,服務化的config.json也需是一樣的。

07推理卡頓:大流量下curl請求超時

問題現象:服務啟動后,在大流量下會出現掛死,具體表現為Curl請求超時,Aicore利用率為0:

image.png

所有卡利用率為0:

image.png

當前識別為重計算觸發的問題,可通過修改mindieservice的config文件進行臨時規避。

要求maxseqen與maxprefilltoken參數配置為相同大小。

當前識別為重計算觸發的問題,可通過修改mindieservice的config文件進行臨時規避。

要求maxseqen與maxprefilltoken參數配置為相同大小。

image.png

08配置問題:服務化benchmark初始化失敗

image.png

需正確配置Ranktable:??export RANKTABLEFILE=/Path/To/ranktable[X].json

09配置問題:Ranktable中的server id和container ip填寫

ranktable中的server id和container ip均填寫成主機IP,前提是起容器時需要設置成host模式:docker run --network host <image_name>,含義就是容器的ip地址=主機的ip地址,注意容器開放的端口不要和主機沖突。

圖片

10日志采集:純模型Profiling 采集

當前 MindIE atb-models 中已經內置了 Profiling 采集邏輯,核心代碼在 atb-models/examples/run_pa.py 的 PARunner 中。我們可以通過以下環境變量對 Profiling 采集進行控制:

image.png

執行采集時,只需要配置環境變量,在modeltest下拉起性能測試,即可獲取到 Profiling 數據。若需采集的卡數大于8,則需要在每個節點上同時開啟以下環境變量:

圖片

開啟環境變量后,參照性能測試,指令如下(可自行修改指令):

image.png

采集完成后,核心數據解析到$PROFILING_FILEPATH /ASCEND_PROFILER_OUTPUT 路徑下。

11日志采集:通用方法

遇到推理報錯時,請打開日志環境變量,收集日志信息。

image.png

12Tokenizer 報錯

image.png

MindIE?報 XXX 錯誤,有一定誤導性。實際上只要是 transformers 加載 tokenizer 報錯,MindIE 會捕獲所有錯誤,直接退出,并且不會顯示真正錯誤原因。通常,transformers 加載 tokenizer 常見錯誤以及對應排查方法有:

1、詞表文件損壞

  • 檢查tokenizer.json 文件完整性,V3 和 R1 的詞表不一樣。

  • 推薦使用 ModelScope 由 Unsloth 維護的 bf16 版本

image.png

2、transformers / tokenizer 版本不匹配

  • 確認 transformers、tokenizer 版本:查看模型權重路徑下的 config.json 中,transformers版本號。注意:不同的原權重由于fp8轉bf16時的transformers版本不同,可能會有不同的transformers 配套,請以機器上的deepseek官方權重中的config.json中的transformers版本為準)

image.png

  • 若懷疑Tokenizer的問題,可以使用以下Tokenizer 校驗方法,創建一個 python 腳本,如果運行成功,則 tokenizer 加載無問題。若報錯,請按照上述方法檢查。

image.png

13性能問題:推理性能不符合預期

首先,請確保使能AIV,關閉確定性計算。

image.png

其次,DeepSeek-R1 官方推薦服務化請求遵循以下配置,以達到預期性能:

  • 將溫度設置在0.5-0.7 范圍內(推薦0.6),以防止出現無休止的重復或不連貫的輸出。

  • 避免添加 System Prompt;所有指令應包含在 User Prompt 中。?

  • 對于數學問題,建議在提示中加入以下指令:“請逐步推理,并將最終答案放在\boxed{}內。”

  • 在評估模型性能時,建議進行多次測試并取平均結果。

  • 若遇到精度問題,請確保使用openai接口。

此外,DeepSeek-R1系統模型在回答某些問題時傾向于繞過思考模式(即不輸出“<think>\n\n</think>”),這可能會影響模型的表現。為了確保模型進行正確的推理,建議強制模型在每次輸出的開頭使用“<think>\n”。

14權重路徑和權限問題

問題描述:

在服務化拉起過程中出現權重路徑不可用或者權重文件夾權限問題。

解決方案:

注意保證權重路徑是可用的,執行以下命令修改權限,注意是整個父級目錄的權限

image.png

15 16卡及以上配置推理測試類問題

1、16卡及以上配置推理測試類問題

問題描述:

多節點參與的推理超過兩小時不通信會超時,從而服務化報錯。

解決方案:

當前版本可以寫一個每小時調用健康監控接口的腳本,進行服務化保活。服務化監控探測接口參考MindIE官方文檔:https://www.hiascend.com/document/detail/zh/mindie/100/mindieservice/servicedev/mindie_service0102.html

2、權重加載過程中/加載完成后卡死

遇到多節點推理拉起問題可以用一個輕量化的腳本嘗試快速定位一下,卡死是否是由于節點間通信算子導致的(以AllReduce為例)。

首先需要在每個節點上(推理容器內)創建三個文件,分別是 hostfile, test_allreduce.sh, test_allreduce.py

image.png

image.png

image.png

image.png

如果該指令能成功跑通且有回顯,則hccl出現問題的幾率較小,可以定位范圍縮小到模型加載的問題上(本方法為簡易HCCL聯通驗證,HCCL連通完全校驗請使用 hccl test 工具)。

如果該指令在計算過程中卡住,則hccl出現問題的幾率較大,可以再容器外再次嘗試該驗證方法。若在容器外也無法驗通,可以按照1.4.1章節對機器進行前置準備,再進行容器外、容器內的連通驗證。

如果該指令直接拉起失敗,檢查腳本是否有寫錯的地方,如sh腳本中各個參數。

3、Unicode Error

問題描述:

出現UnicodeEncodeError: 'ascii' codec can't encode character \uff5c in position 301:ordinal not in range(128) 報錯。

解決方案:

這是因為由于系統在寫入或打印日志ASCII編碼deepseek的詞表失敗,導致報錯,不影響服務化正常運行。如果需要規避,需要將/usr/local/Ascend/atb-models/atb_llm/runner/model_runner.py的第145行注釋掉:

image.png

4、Not set valid RANKTABLEFILE報錯

問題描述:

在執行服務化benchmark測試時,報錯 not set valid RANKTABLEFILE。

image.png

解決方案:

需在每臺機器上正確配置RANKTABLEFILE文件路徑的環境變量:

image.png

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/diannao/70363.shtml
繁體地址,請注明出處:http://hk.pswp.cn/diannao/70363.shtml
英文地址,請注明出處:http://en.pswp.cn/diannao/70363.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

vscode復制到下一行

linux中默認快捷鍵是ctrl shift alt down/up 但是在vscode中無法使用&#xff0c;應該是被其他的東西綁定了&#xff0c;經測試&#xff0c;可以使用windows下的快捷鍵shift alt down/up { “key”: “shiftaltdown”, “command”: “editor.action.copyLinesDownAction”…

網絡爬蟲學習:借助DeepSeek完善爬蟲軟件,實現模擬鼠標右鍵點擊,將鏈接另存為本地文件

一、前言 最近幾個月里&#xff0c;我一直在學習網絡爬蟲方面的知識&#xff0c;每有收獲都會將所得整理成文發布&#xff0c;不知不覺已經發了7篇日志了&#xff1a; 網絡爬蟲學習&#xff1a;從百度搜索結果抓取標題、鏈接、內容&#xff0c;并保存到xlsx文件中 網絡爬蟲學…

Arduino 第十六章:pir紅外人體傳感器練習

Arduino 第十六章&#xff1a;PIR 傳感器練習 一、引言 在 Arduino 的眾多有趣項目中&#xff0c;傳感器的應用是非常重要的一部分。今天我們要學習的主角是 PIR&#xff08;被動紅外&#xff09;傳感器。PIR 傳感器能夠檢測人體發出的紅外線&#xff0c;常用于安防系統、自動…

CV -- YOLOv8 圖像分割(GPU環境)

目錄 參考視頻&#xff1a; 標注 JSON轉為TXT 訓練 驗證 參考視頻&#xff1a; 使用 Yolov8 自定義數據集進行圖像分割_嗶哩嗶哩_bilibili 標注 數據集&#xff1a; 我使用的是一些蘋果數據集&#xff0c;可以在我的csdn資源中下載&#xff1a; https://download.csdn.net/do…

深入理解 lua_KFunction 和 lua_CFunction

在 Lua C API 中,lua_KFunction 和 lua_CFunction 是兩個核心概念,尤其在處理協程和 C 函數擴展時扮演著至關重要的角色。lua_CFunction 作為一種 C 函數類型,允許開發者將 C 函數注冊到 Lua 環境中,使得這些 C 函數可以在 Lua 腳本中被調用,進而實現 Lua 的功能擴展。而 …

基于微信小程序的電影院訂票選座系統的設計與實現,SSM+Vue+畢業論文+開題報告+任務書+指導搭建視頻

本系統包含用戶、管理員兩個角色。 用戶角色&#xff1a;注冊登錄、查看首頁電影信息推薦、查看電影詳情并進行收藏預定、查看電影資訊、在線客服、管理個人訂單等。 管理員角色&#xff1a;登錄后臺、管理電影類型、管理放映廳信息、管理電影信息、管理用戶信息、管理訂單等。…

【Linux網絡編程】應用層協議HTTP(請求方法,狀態碼,重定向,cookie,session)

&#x1f381;個人主頁&#xff1a;我們的五年 &#x1f50d;系列專欄&#xff1a;Linux網絡編程 &#x1f337;追光的人&#xff0c;終會萬丈光芒 &#x1f389;歡迎大家點贊&#x1f44d;評論&#x1f4dd;收藏?文章 ? Linux網絡編程筆記&#xff1a; https://blog.cs…

Vue3 打造 Windows 桌面個性高效組件工具

軟件介紹 Widgets 這款基于 Vue3 構建的開源 Windows 桌面小部件工具超實用。 其多樣化組件庫涵蓋超 20 種&#xff0c;從倒計時、打工進度等實用工具&#xff0c;到抖音熱榜等實時資訊組件應有盡有&#xff0c;各組件獨立運行&#xff0c;滿足多場景需求。 高度自定義布局支持…

Tailwind CSS 和 UnoCSS簡單比較

一、Tailwind CSS 和 UnoCSS簡介 Tailwind CSS 和 UnoCSS 都是流行的原子化 CSS 框架&#xff0c;它們有很多相似之處&#xff0c;但也存在一些明顯的區別&#xff0c;以下從多個方面對它們進行比較&#xff1a; 1. 基本概念和原理 Tailwind CSS 是最早提出并推動原子化 CSS…

什么是語料清洗、預訓練、指令微調、強化學習、內容安全; 什么是megatron,deepspeed,vllm推理加速框架

什么是語料清洗、預訓練、指令微調、強化學習、內容安全 目錄 什么是語料清洗、預訓練、指令微調、強化學習、內容安全語料清洗預訓練指令微調強化學習內容安全什么是megatron,deepspeed,vllm推理加速框架語料清洗 語料清洗是對原始文本數據進行處理的過程,旨在去除數據中的…

C++(23):lambda可以省略()

C越來越多的使用了lambda&#xff0c;C23也進一步的放寬了對lambda的限制&#xff0c;這一次&#xff0c;如果lambda沒有參數列表&#xff0c;那么可以直接省略掉()&#xff1a; #include <iostream> using namespace std;void func() {auto f []{cout<<"in…

自制操作系統分享第四天

今天要做什么&#xff1f; &#xff08;1&#xff09;分享 我們上面已經說過INT 0x13這種指令&#xff08;調用BIOS的INT指令&#xff09;&#xff0c;我們知道這是調用BIOS的0x13函數&#xff0c;但還不明白它到底是干什么用的&#xff1a; AH 0x02;# 讀盤 AH 0x03;# 寫…

DeepSeek預測25考研分數線

25考研分數馬上要出了。 目前&#xff0c;多所大學已經陸續給出了分數查分時間&#xff0c;綜合往年情況來看&#xff0c;每年的查分時間一般集中在2月底。 等待出成績的日子&#xff0c;學子們的心情是萬分焦急&#xff0c;小編用最近爆火的“活人感”十足的DeepSeek幫大家預…

Android 動態加入Activity 時 manifest 注冊報錯解決。使用manifestPlaceholders 占位

需求如下&#xff1a; 項目 測試demo 有多個渠道&#xff0c;部分渠道包含支付功能&#xff0c;在主測試代碼外&#xff0c;需要一個單獨 Activity 調用測試代碼。 MainActivityPayActivity渠道A包含不包含渠道B包含包含 因為支付功能需要引入對應的 moudule&#xff0c;因此…

FRRouting配置與OSPF介紹,配置,命令,bfd算法:

文章目錄 1、frrouting的配置&#xff1a;2、ospf2.1、檢測和維護鄰居關系2.2、ospfDR和BDR2.3、odpf鄰居表2.4、ospf常用命令2.5、bfd配置 1、frrouting的配置&#xff1a; sudo service zebra start sudo service ospfd start telnet localhost 2604 en configure termina…

Perplexity 開源DeepSeek-R1 模型新版本 R1-1776

引言 在人工智能領域&#xff0c;模型的更新迭代如同科技界的時尚潮流&#xff0c;不斷推陳出新。今天&#xff0c;我們要介紹的是Perplexity AI開源的新版推理模型——DeepSeek-R1 1776。這個版本不僅繼承了前代的強大性能&#xff0c;還在公正性和準確性上進行了顯著提升。那…

關系中出現這10個信號,離分手就不遠了(愛情友情都適用)

親密關系的隱形裂痕 在一個陽光明媚卻略顯蕭瑟的午后&#xff0c;咖啡杯里的咖啡已經涼透。小李盯著手機屏幕&#xff0c;那些曾經熱烈的對話記錄現在看起來如此陌生&#xff0c;仿佛隔著一層薄薄的霧。她終于意識到&#xff0c;這段關系已經悄然走向盡頭。 親密關系是一場精心…

馬斯克Grok3使用入口和訂閱教程(白嫖150刀API額度)

文章目錄 馬斯克Grok3使用入口和訂閱教程(白嫖150刀API額度)前言介紹如何訂閱X上Premium服務國內訂閱X的Premium教程 白嫖教程小結 馬斯克Grok3使用入口和訂閱教程(白嫖150刀API額度) 前言介紹 重點&#xff1a;Grok 3僅對X上的Premium用戶開放。你需要訂閱X的Premium服務才能…

相機開發調中廣角和焦距有什么不一樣

在相機中,調整廣角和調整焦距是兩個不同的概念,它們的作用和實現方式也不同。以下是兩者的詳細對比和解釋: 1. 調整廣角 定義 廣角是指相機的視野范圍(Field of View, FOV)。調整廣角實際上是調整相機的視野范圍。更廣的視野意味著可以捕捉到更多的場景內容(更寬的畫面)…

讓大模型幫我設計crnn網絡及可運行demo,gpt4o豆包qwendeepseek-r1

prompt 使用 crnn 提取圖像特征&#xff0c;給出圖像好壞的二分類結果&#xff0c;寫清楚代碼備注&#xff0c;注釋清楚向量維度大小&#xff0c;并給出一個可運行的 demo1、GPT-4o 以下是一個使用 CRNN&#xff08;Convolutional Recurrent Neural Network&#xff09;提取圖…