視頻分類 pytorchvideo

目錄

1. 速度 vs 精度分析

mvit:

r2plus1d_r50 推理代碼:

x3d_xs推理代碼:

R(2+1)D

X3D(輕量級,速度快)

I3D(經典 3D CNN)

替換分類層(適配你的任務)


https://github.com/facebookresearch/pytorchvideo/blob/main/docs/source/model_zoo.md

archdepthpretrainframe length x sample ratetop 1top 5Flops (G) x viewsParams (M)Model
C2DR50-8x871.4689.6825.89 x 3 x 1024.33link
I3DR50-8x873.2790.7037.53 x 3 x 1028.04link
SlowR50-4x1672.4090.1827.55 x 3 x 1032.45link
SlowR50-8x874.5891.6354.52 x 3 x 1032.45link
SlowFastR50-4x1675.3491.8936.69 x 3 x 1034.48link
SlowFastR50-8x876.9492.6965.71 x 3 x 1034.57link
SlowFastR101-8x877.9093.27127.20 x 3 x 1062.83link
SlowFastR101-16x878.7093.61215.61 x 3 x 1053.77link
CSNR101-32x277.0092.9075.62 x 3 x 1022.21link
R(2+1)DR50-16x476.0192.2376.45 x 3 x 1028.11link
X3DXS-4x1269.1288.630.91 x 3 x 103.79link
X3DS-13x673.3391.272.96 x 3 x 103.79link
X3DM-16x575.9492.726.72 x 3 x 103.79link
X3DL-16x577.4493.3126.64 x 3 x 106.15link
MViTB-16x478.8593.8570.80 x 1 x 536.61link
MViTB-32x380.3094.69170.37 x 1 x 536.61link

1. 速度 vs 精度分析

模型計算量/速度精度適合你需求的程度
X3D??????最快???? 較高🏆 最佳選擇
R(2+1)D??? 中等????? 很高??? 不錯但稍慢
I3D?? 最慢???? 較高?? 不太適合
pip install pytorchvideo
import torch
from pytorchvideo.models import hubbackbone = getattr(hub, "r2plus1d_r50")(pretrained=False)backbone = torch.hub.load("facebookresearch/pytorchvideo", model="r2plus1d_r50", pretrained=True)

mvit:


import torch
import time
from torch import nn# 如果你用的是官方實現,可以替換成 mvit_v2_s/mvit_v2_b 等
# pip install torchvision>=0.13
from torchvision.models.video import mvit_v2_sdef val_mvit_inference_speed(device="cuda", warmup=10, test_iter=50):"""測試 MViT 網絡推理速度:param device: 設備 ('cuda' or 'cpu'):param warmup: 預熱次數(避免初次運行不穩定):param test_iter: 測試迭代次數"""# 1. 構建模型model = mvit_v2_s(pretrained=False)  # 可以換成 mvit_v2_bmodel = model.to(device)model.eval()# 2. 構造一個隨機輸入 (N, C, T, H, W)# 例如 1 幀視頻片段 (16 幀, 3 通道, 224x224)dummy_input = torch.randn(1, 3, 16, 224, 224).to(device)# 3. 預熱with torch.no_grad():for _ in range(warmup):_ = model(dummy_input)# 4. 正式測試torch.cuda.synchronize() if device.startswith("cuda") else Nonestart = time.time()with torch.no_grad():for _ in range(test_iter):_ = model(dummy_input)torch.cuda.synchronize() if device.startswith("cuda") else Noneend = time.time()avg_time = (end - start) / test_iterfps = 1 / avg_timeprint(f"設備: {device}")print(f"平均推理時間: {avg_time * 1000:.2f} ms/iter")print(f"推理速度: {fps:.2f} FPS")if __name__ == "__main__":val_mvit_inference_speed("cuda")   # GPU 測試# test_mvit_inference_speed("cpu")    # CPU 測試

r2plus1d_r50 推理代碼:

224*224 分類需要60ms

import timeimport torch
import numpy as np
from PIL import Image
import torchvision.transforms as transformsdevice = torch.device("cuda" if torch.cuda.is_available() else "cpu")
print(f"使用設備: {device}")def load_x3d_xs_model():"""加載 X3D-XS 模型,更適合小分辨率"""# model = torch.hub.load('facebookresearch/pytorchvideo', 'x3d_xs', pretrained=True)# model = torch.hub.load('facebookresearch/pytorchvideo', 'x3d_s', pretrained=True)model = torch.hub.load("facebookresearch/pytorchvideo", model="r2plus1d_r50", pretrained=True)model = model.to(device)model.eval()return modeldef preprocess_for_x3d_xs(video_frames, target_size=182, crop_size=72):"""為 X3D-XS 預處理X3D-XS 設計用于較小分辨率,推薦 160×160"""mean = [0.45, 0.45, 0.45]std = [0.225, 0.225, 0.225]num_frames = 13  # X3D-XS 使用4幀# 幀數處理if len(video_frames) > num_frames:indices = np.linspace(0, len(video_frames) - 1, num_frames, dtype=int)video_frames = [video_frames[i] for i in indices]transform = transforms.Compose([transforms.Resize(target_size), transforms.CenterCrop(crop_size), transforms.ToTensor(), transforms.Normalize(mean=mean, std=std)])processed_frames = []for frame in video_frames:if isinstance(frame, np.ndarray):frame = Image.fromarray(frame)processed_frame = transform(frame)processed_frames.append(processed_frame)video_tensor = torch.stack(processed_frames).permute(1, 0, 2, 3)return video_tensor.unsqueeze(0)# 使用示例
model = load_x3d_xs_model()for i in range(10):dummy_frames = [np.random.randint(0, 255, (200, 200, 3), dtype=np.uint8) for _ in range(13)]input_tensor = preprocess_for_x3d_xs(dummy_frames)print(input_tensor.shape)input_tensor = input_tensor.to(device)start = time.time()with torch.no_grad():output = model(input_tensor)torch.cuda.synchronize()print(f"輸出形狀: {output.shape}", time.time() - start)  # 應該能正常工作

x3d_xs推理代碼:

import torchimport osfrom torch import nnos.environ["FFCV_DISABLE_IOPATH"] = "1"
import torch.nn.functional as Ffrom pytorchvideo.models.x3d import create_x3d
import torchvision.transforms as T
from torchvision.io import read_video
import numpy as np
from PIL import Image
import cv2
import osclass VideoNormalize(nn.Module):def __init__(self, mean, std):super().__init__()self.register_buffer("mean", torch.tensor(mean).view(-1, 1, 1, 1))  # [C,1,1,1]self.register_buffer("std", torch.tensor(std).view(-1, 1, 1, 1))    # [C,1,1,1]def forward(self, x):# x: [C, T, H, W]return (x - self.mean) / self.stdclass X3DVideoClassifier:def __init__(self, model_type='x3d_xs', num_classes=2, device='auto'):"""初始化X3D視頻分類器Args:model_type: 模型類型 ('x3d_xs', 'x3d_s', 'x3d_m')num_classes: 分類數量device: 運行設備 ('auto', 'cuda', 'cpu')"""self.model_type = model_typeself.num_classes = num_classesself.device = deviceif device == 'auto':self.device = 'cuda' if torch.cuda.is_available() else 'cpu'self._load_model()self._setup_transforms()def _load_model(self):"""加載預訓練模型"""# model_map = {'x3d_xs': x3d_xs, 'x3d_s': x3d_s, 'x3d_m': x3d_m}# if self.model_type not in model_map:#     raise ValueError(f"不支持的模型類型: {self.model_type}")# 加載預訓練模型self.model = torch.hub.load("facebookresearch/pytorchvideo", "x3d_s", pretrained=True)# 替換最后的分類層in_features = self.model.blocks[-1].proj.in_featuresself.model.blocks[-1].proj = torch.nn.Linear(in_features, self.num_classes)self.model.to(self.device)self.model.eval()print(f"已加載 {self.model_type} 模型到 {self.device}")def _setup_transforms(self):"""設置數據預處理流程"""self.transform = T.Compose([T.Lambda(lambda x: x / 255.0),  # 歸一化到 [0, 1]T.Lambda(lambda x: x.permute(3, 0, 1, 2)),  # [T, H, W, C] -> [C, T, H, W]T.Resize((72, 72)),  # 調整到72x72VideoNormalize(mean=[0.45, 0.45, 0.45], std=[0.225, 0.225, 0.225]), ])def load_video(self, video_path, max_frames=16):"""加載視頻文件Args:video_path: 視頻文件路徑max_frames: 最大幀數"""if not os.path.exists(video_path):raise FileNotFoundError(f"視頻文件不存在: {video_path}")# 使用OpenCV讀取視頻cap = cv2.VideoCapture(video_path)frames = []while len(frames) < max_frames:ret, frame = cap.read()if not ret:break# 轉換BGR到RGBframe_rgb = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)frames.append(frame_rgb)cap.release()if len(frames) == 0:raise ValueError("無法從視頻中讀取幀")# 轉換為tensor [T, H, W, C]video_tensor = torch.from_numpy(np.array(frames)).float()return video_tensordef preprocess_video(self, video_tensor):"""預處理視頻數據"""# 應用變換processed = self.transform(video_tensor)# 添加batch維度 [1, C, T, H, W]processed = processed.unsqueeze(0)return processed.to(self.device)def predict(self, video_path, class_names=None):"""對視頻進行分類預測Args:video_path: 視頻文件路徑class_names: 類別名稱列表"""# 加載視頻print(f"正在加載視頻: {video_path}")video_tensor = self.load_video(video_path)print(f"視頻幀數: {video_tensor.shape[0]}")# 預處理input_tensor = self.preprocess_video(video_tensor)print(f"輸入張量形狀: {input_tensor.shape}")# 推理with torch.no_grad():outputs = self.model(input_tensor)probabilities = F.softmax(outputs, dim=1)confidence, predicted_idx = torch.max(probabilities, 1)# 處理結果confidence = confidence.item()predicted_idx = predicted_idx.item()if class_names and len(class_names) > predicted_idx:predicted_class = class_names[predicted_idx]else:predicted_class = f"Class {predicted_idx}"return {'predicted_class': predicted_class, 'confidence': confidence, 'class_index': predicted_idx, 'probabilities': probabilities.cpu().numpy()[0]}def predict_from_tensor(self, video_tensor, class_names=None):"""直接從張量進行預測"""input_tensor = self.preprocess_video(video_tensor)with torch.no_grad():outputs = self.model(input_tensor)probabilities = F.softmax(outputs, dim=1)confidence, predicted_idx = torch.max(probabilities, 1)confidence = confidence.item()predicted_idx = predicted_idx.item()if class_names and len(class_names) > predicted_idx:predicted_class = class_names[predicted_idx]else:predicted_class = f"Class {predicted_idx}"return {'predicted_class': predicted_class, 'confidence': confidence, 'class_index': predicted_idx, 'probabilities': probabilities.cpu().numpy()[0]}# 使用示例
def main():# 初始化分類器classifier = X3DVideoClassifier(model_type='x3d_s',  # 使用超小版本,速度最快num_classes=2,  # 2分類任務device='auto'  # 自動選擇設備)# 類別名稱(根據你的任務修改)class_names = ["類別A", "類別B"]# 示例1: 從文件預測video_path = r"C:\Users\Administrator\Videos\xiaoxia.mp4"try:result = classifier.predict(video_path, class_names)print("\n" + "=" * 50)print("視頻分類結果:")print(f"預測類別: {result['predicted_class']}")print(f"置信度: {result['confidence']:.4f}")print(f"類別索引: {result['class_index']}")print("各類別概率:")for i, prob in enumerate(result['probabilities']):class_name = class_names[i] if i < len(class_names) else f"Class {i}"print(f"  {class_name}: {prob:.4f}")print("=" * 50)except Exception as e:print(f"錯誤: {e}")print("使用隨機張量進行演示...")# 示例2: 使用隨機張量演示random_video = torch.randn(16, 72, 72, 3)  # [T, H, W, C]result = classifier.predict_from_tensor(random_video, class_names)print("\n隨機張量演示結果:")print(f"預測類別: {result['predicted_class']}")print(f"置信度: {result['confidence']:.4f}")if __name__ == "__main__":main()

R(2+1)D

R(2+1)D 將 3D 卷積分解為空間 2D 卷積和時間 1D 卷積,在性能和效率上取得了很好的平衡。

import torch
from pytorchvideo.models import resnet# R(2+1)D-18, 預訓練在 Kinetics-400
model = resnet.create_r2plus1d(input_channel=3,         # RGBmodel_depth=18,          # ResNet18 backbonemodel_num_class=400,     # Kinetics-400 分類數pretrained=True
)

X3D(輕量級,速度快)


from pytorchvideo.models import x3d# X3D-Medium (還有 XS, S, L 版本)
model = x3d.create_x3d(input_channel=3,model_num_class=400,   # Kinetics-400model_depth=50,pretrained=True,model_variant="M"      # XS / S / M / L
)

I3D(經典 3D CNN)

from pytorchvideo.models import i3dmodel = i3d.create_kinetics_resnet50(pretrained=True,model_num_class=400   # Kinetics-400
)

替換分類層(適配你的任務)

假設你的視頻只有 num_classes=5

 
num_classes = 5# 替換掉最后的分類層 (fc 或 proj depending on model)
if hasattr(model, "blocks"):  # R(2+1)D / I3D 用這種方式model.blocks[-1].proj = torch.nn.Linear(model.blocks[-1].proj.in_features, num_classes)
else:# X3Dmodel.head.proj = torch.nn.Linear(model.head.proj.in_features, num_classes)

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/bicheng/98162.shtml
繁體地址,請注明出處:http://hk.pswp.cn/bicheng/98162.shtml
英文地址,請注明出處:http://en.pswp.cn/bicheng/98162.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

OpenTiny NEXT 內核新生:生成式UI × MCP,重塑前端交互新范式!

近期&#xff0c;我們推出 OpenTiny NEXT —— OpenTiny的下一代企業級前端智能開發解決方案。這不僅是一次技術升級&#xff0c;更是一場用戶交互范式的變革&#xff1a;從傳統的人機交互升級成為人機交互范式和智能體交互范式的融合。我們堅信&#xff0c;每一個企業應用都值…

深度神經網絡1——梯度問題+標簽數不夠問題

要解決一個復雜問題&#xff0c;可能要訓練更深的神經網絡&#xff0c;可能會10層及以上&#xff0c;每層包含數百個神經元&#xff0c;成千上萬個連接。這樣大的神經網絡在訓練的時候可能會遇到以下問題&#xff1a;這樣在進行反向傳播的時候&#xff0c;隨著層數越來越低會遇…

(筆記)內存文件映射mmap

內存文件映射是一種將文件內容映射到進程的虛擬地址空間的技術&#xff0c;使得文件可以被視為內存的一部分&#xff0c;從而允許程序直接對這部分內存進行讀寫操作&#xff0c;而無需傳統的文件 I/O 調用。這種方法不僅簡化了文件操作&#xff0c;還提高了處理效率。 在Linux…

Golang中的NaN(Not a Number)

Golang中的NaN&#xff08;Not a Number&#xff09; 在Go語言中&#xff0c;NaN是浮點數&#xff08;特別是float32和float64&#xff09;中的一個特殊值&#xff0c;表示未定義或不可表示的數值。 go中&#xff0c;除數為0時并不會返回error或者nil&#xff0c;而是返回無窮大…

微軟圖引擎GraphEngine深度解析:分布式內存計算的技術革命

? "在大數據的汪洋中&#xff0c;圖引擎就像是一艘能夠高速穿越復雜關系網絡的超級快船" 引言&#xff1a;當內存遇上圖計算的火花 在這個數據爆炸的時代&#xff0c;傳統的關系型數據庫已經難以應對復雜關系數據的查詢挑戰。當Facebook的社交網絡擁有數十億用戶關…

catkin工程和CMakelist.txt的基本使用

catkin工程和CMakelist.txt的基本使用1.catkin工程和CMakelist.txt的基本使用1. 頂部基本信息2. 編譯選項 / C 標準3. 依賴查找&#xff08;catkin 包&#xff09;4. 第三方庫查找&#xff08;非 catkin&#xff09;5. 導出包信息&#xff08;catkin_package&#xff09;6. 頭文…

uniapp打包前端項目

打包前的準備工作確保項目開發已完成&#xff0c;并且已安裝最新版本的HBuilderX。檢查項目中所有依賴是否已正確安裝&#xff0c;配置文件如manifest.json已根據H5需求進行適配。在HBuilderX中打包在 HBuilderX 中&#xff0c;點擊頂部菜單欄的 “發行” -> “網站-H5手機版…

Dify + Bright Data MCP:從實時影音數據到可落地的智能體生產線

一、引言&#xff1a;AI 應用與實時影音數據的融合價值 內容生態近年的“視頻化、實時化、社交化”浪潮&#xff0c;將數據獲取鏈路推到了更靠前的位置。真正驅動業務的&#xff0c;不是某一幀漂亮的模型輸出&#xff0c;而是“數據—理解—動作”的持續閉環。無論是品牌內容策…

【Linux】make/Makefile工具篇

目錄一、自動化構建二、make/Makefile2.1 見識一個簡單的make/Makefile2.2 Makefile的基本語法2.3 Makefile的語法細節個人主頁<—請點擊 Linux專欄<—請點擊 一、自動化構建 自動化構建是指通過構建工具&#xff08;如make&#xff09;解析構建腳本&#xff08;如Make…

如何在企業微信上以 HTTPS 方式訪問內網 OA/ERP 等系統?

企業微信可以將 ZeroNews 平臺上添加的內網應用集成到企業微信的工作臺。這樣&#xff0c;用戶即使在外部網絡環境中&#xff0c;也可以通過企業微信訪問內網的 OA、ERP 等應用。以下是企業在 Linux 服務器上部署 OA 系統&#xff0c;并通過 ZeroNews 通過互聯網訪問 OA 系統的…

Windows 11 安裝使用 nvm,Node.js、npm多版本管理、切換

Windows 11 安裝使用 nvm&#xff0c;Node.js、npm多版本管理、切換 文章目錄Windows 11 安裝使用 nvm&#xff0c;Node.js、npm多版本管理、切換1. nvm 簡介2. 安裝、配置 nvm2.1. 卸載現有 Node.js&#xff08;非常重要&#xff01;&#xff09;2.2. 下載 nvm-windows 安裝包…

在LazyVim中配置Rust開發環境

要在LazyVim中配置Rust開發環境&#xff0c;包括代碼補全、格式化、調試等功能&#xff0c;可以按照以下步驟進行配置&#xff1a; 1. 確保基礎環境 首先確保你已經安裝了&#xff1a; Rust工具鏈 (rustup, rustc, cargo)LazyVim已正確安裝 # 安裝Rust工具鏈 curl --proto http…

LeetCode熱題100--114. 二叉樹展開為鏈表--中等

1. 題目 給你二叉樹的根結點 root &#xff0c;請你將它展開為一個單鏈表&#xff1a; 展開后的單鏈表應該同樣使用 TreeNode &#xff0c;其中 right 子指針指向鏈表中下一個結點&#xff0c;而左子指針始終為null 。展開后的單鏈表應該與二叉樹 先序遍歷 順序相同。 示例 …

REST API 設計最佳實踐指南 - 如何用 JavaScript、Node.js 和 Express.js 構建 REST API

過去幾年里&#xff0c;我創建并使用過很多 API。在此過程中&#xff0c;我遇到過各種好的和壞的實踐&#xff0c;也在開發和調用 API 時碰到過不少棘手的問題&#xff0c;但也有很多順利的時刻。 網上有很多介紹最佳實踐的文章&#xff0c;但在我看來&#xff0c;其中不少都缺…

MyCat

文章目錄18.1 MySQL 讀寫分離概述18.1.1 工作原理18.1.2 為什么要讀寫分離18.1.3 實現方式18.2 什么是 MyCat18.3 MyCat 安裝與配置1. 下載與解壓2. 創建用戶并修改權限3. 目錄說明4. Java 環境要求18.4 MyCat 啟動與配置1. 配置環境變量2. 配置 hosts&#xff08;多節點集群&a…

使用 Spring Boot 搭建和部署 Kafka 消息隊列系統

使用 Spring Boot 搭建和部署 Kafka 消息隊列系統 摘要 本文將引導您在 Kafka 上搭建一個消息隊列系統&#xff0c;并整合到您的 Spring Boot 項目中。我們將逐步實現這一方案&#xff0c;探討其中的關鍵原理&#xff0c;避開可能遇到的坑&#xff0c;并最終將其部署到 Kuberne…

daily notes[45]

文章目錄basic knowledgereferencesbasic knowledge the variable in Rust is not changed. let x5; x6;Rust language promotes the concept that immutable variables are safer than variables in other programming language such as python and and are in favour of th…

技術奇點爆發周:2025 年 9 月科技突破全景掃描

技術奇點爆發周&#xff1a;2025 年 9 月科技突破全景掃描當中國 "祖沖之三號" 量子計算機在特定任務上超越經典超級計算機一千萬億倍的算力新聞&#xff0c;與 OpenAI 宣布 100 億美元定制芯片量產協議的消息在同一周密集爆發時&#xff0c;我們真切感受到了技術革命…

分布式專題——10.3 ShardingSphere實現原理以及內核解析

1 ShardingSphere-JDBC 內核工作原理當往 ShardingSphere 提交一個邏輯SQL后&#xff0c;ShardingSphere 到底做了哪些事情呢&#xff1f;首先要從 ShardingSphere 官方提供的這張整體架構圖說起&#xff1a;1.1 配置管控在 SQL 進入 ShardingSphere 內核處理&#xff08;如解析…

移動語義的里里外外:從 std::move 的幻象到性能的現實

我們都已經聽過這樣的建議&#xff1a;“使用 std::move 來避免昂貴的拷貝&#xff0c;提升性能。” 這沒錯&#xff0c;但如果你對它的理解僅止于此&#xff0c;那么你可能正在黑暗中揮舞著一把利劍&#xff0c;既可能披荊斬棘&#xff0c;也可能傷及自身。 移動語義是 C11 帶…