YOLO系列家族
- (1)YOLO發展史
- (2) YOLOX
- (3) YOLOv6
- (4) YOLOv7
- (5) YOLOv8
- (6) YOLOv9
- (7)YOLOv10
- (8)YOLOv11
- (9)YOLOv12
(1)YOLO發展史
YOLO(You Only Look Once)是一種流行的物體檢測和圖像分割模型,由華盛頓大學的約瑟夫-雷德蒙(Joseph Redmon)和阿里-法哈迪(Ali Farhadi)開發。YOLO 于 2015 年推出,因其高速度和高精確度而迅速受到歡迎。
-
2016 年發布的YOLOv2 通過納入批量歸一化、錨框和維度集群改進了原始模型。
-
2018 年推出的YOLOv3 使用更高效的骨干網絡、多錨和空間金字塔池化(SPP)進一步增強了模型的性能。
-
2020 年YOLOv4發布,引入了 Mosaic 數據增強、新的無錨檢測頭和新的損失函數等創新技術。
-
2020 年YOLOv5進一步提高了模型的性能,并增加了超參數優化、集成實驗跟蹤和自動導出為常用導出格式等新功能。
-
2021 年YOLOX由曠視科技開源,解耦頭
-
2022 年YOLOv6由美團開源,目前已用于該公司的許多自主配送機器人。
-
2022 年YOLOv7開源,增加了額外的任務,如 COCO 關鍵點數據集的姿勢估計。
-
2023 年YOLOv8是YOLO 的最新版本,由Ultralytics 提供。YOLOv8 YOLOv8 支持全方位的視覺 AI 任務,包括檢測、分割、姿態估計、跟蹤和分類。這種多功能性使用戶能夠在各種應用和領域中利用YOLOv8 的功能。
-
2024 年YOLOv9引入了可編程梯度信息(PGI)和廣義高效層聚合網絡(GELAN)等創新方法。
-
2024年YOLOv10引入了一種雙重分配策略,消除了NMS的需求,從而實現了更快、更高效的目標檢測。
- 2024年YOLO11 新功能: 最新的 模型可在Ultralytics YOLO 檢測、分割、姿勢估計、跟蹤和分類等多項任務中提供最先進的 (SOTA) 性能,充分利用各種人工智能應用和領域的能力。
- 2025.02.18 YOLOv12發布,首次擺脫了傳統卷積神經網絡的約束,將注意力機制直接融入目標檢測框架,創新性的使用區域注意力、R-ELAN 和 FlashAttention,在提高檢測精度(mAP)的同時保持實時推理性能。
YOLO家族進化史(v1-v8)
(2) YOLOX
目標檢測網絡YoloX介紹及實現
YOLOX簡述
論文地址: https://arxiv.org/abs/2107.08430
代碼倉庫: https://github.com/Megvii-BaseDetection/YOLOX
(3) YOLOv6
論文地址:
- YOLOv6 v3.0: A Full-Scale Reloading 🔥
- YOLOv6: A Single-Stage Object Detection Framework for Industrial Applications
代碼倉庫: https://github.com/meituan/YOLOv6
(4) YOLOv7
論文地址: YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors
代碼倉庫: https://github.com/WongKinYiu/yolov7
(5) YOLOv8
論文地址: /
代碼倉庫: https://github.com/ultralytics/ultralytics
(6) YOLOv9
江大白 | 目標檢測YOLOv9算法,重磅開源!
論文地址: https://arxiv.org/abs/2402.13616
代碼倉庫: https://github.com/WongKinYiu/yolov9
(7)YOLOv10
目標檢測 | yolov10 原理和介紹
論文地址: https://arxiv.org/pdf/2405.14458
代碼倉庫: https://github.com/THU-MIG/yolov10
(8)YOLOv11
YOLOv11來了,使用YOLOv11訓練自己的數據集和推理
代碼倉庫: https://github.com/ultralytics/ultralytics
(9)YOLOv12
YOLOv12問世!
YOLOv12論文詳解:以注意力機制為核心的實時目標檢測算法(附論文和源碼)
論文地址:https://arxiv.org/abs/2502.12524
代碼倉庫:https://github.com/sunsmarterjie/yolov12