MimicMotion 是由騰訊公司推出的一款人工智能人像動態視頻生成框架。可以模仿視頻動作再讓圖片模仿動作姿態,最后生成視頻。
MimicMotion 的核心在于其置信度感知的姿態引導技術,確保視頻幀的高質量和時間上的平滑過渡。
以前咱們也手搭過Animate-X讓圖像動起來,Animate-X是由阿里推出的,兩款的功能大致相同。想體驗的話也可以參考Animate-X讓圖像動起來。
今天咱們來體驗下騰訊的MimicMotion ,看看效果怎么樣。
1、首先貼下地址。
https://github.com/kijai/ComfyUI-MimicMotionWrapper
2、可以去comfyui中下載該節點。
直接安裝。如果安裝不了的話可以先下載下來,上傳到服務器上面,再去安裝環境
cd?custom_nodes/ComfyUI-MimicMotionWrapper
pip install -r requirement.txt
3、下載模型,按照此路徑放置。若不想去GitHub上面地址下載的話可以去我的網盤下載。后臺回復‘mimic’即可拿到下載鏈接。
4、加載工作流,開始體驗吧。(工作流也在網盤中,后臺回復‘mimic’可一并拿到鏈接)
4090顯卡跑了大概5分鐘左右
我的天吶,不忍直視,不過動作幀倒捕捉的挺好的。
如果是捕捉的是自己視頻的動作,上傳的圖片是自己的圖片,相信效果會不錯。
MimicMotion 讓你的圖片動起來
大家在使用的過程中有遇到什么問題,或者有什么想實現的功能歡迎留言,大家一起討論學習。
就算失敗,我也想知道,自己倒在距離終點多遠的地方。--長安的荔枝