深度學習 Day13——P2彩色圖片分類

  • 🍨 本文為🔗365天深度學習訓練營 中的學習記錄博客
  • 🍖 原作者:K同學啊 | 接輔導、項目定制

文章目錄

  • 前言
  • 1 我的環境
  • 2 代碼實現與執行結果
    • 2.1 前期準備
      • 2.1.1 引入庫
      • 2.1.2 設置GPU(如果設備上支持GPU就使用GPU,否則使用CPU)
      • 2.1.3 導入數據
      • 2.1.4 查看數據
      • 2.1.5.數據可視化
    • 2.2 構建CNN網絡模型
    • 2.3 訓練模型
      • 2.3.1 訓練模型
      • 2.3.2 編寫訓練函數
      • 2.3.3 編寫測試函數
      • 2.3.4 正式訓練
    • 2.4 結果可視化
  • 3 知識點詳解
    • 3.1 torch.nn常用網絡層Conv2d、Linear和MaxPool2d詳解
      • 3.1.1 torch.nn.Conv2d()詳解
      • 3.1.2 torch.nn.Linear()詳解
      • 3.1.3 torch.nn.MaxPool2d()詳解
      • 3.1.4. 關于卷積層、池化層的計算:
    • 3.2. torch.nn網絡訓練相關函數optimizer.zero_grad()、loss.backward()、optimizer.step()詳解
      • 3.2.1 optimizer.zero_grad()
      • 3.2.2 loss.backward()
      • 3.2.3 optimizer.step()
    • 3.3 opencv、matplotlib、pillow和pytorch讀取數據的通道順序
  • 總結


前言

本文將采用pytorch框架創建CNN網絡,實現簡單彩色圖片分類。講述實現代碼與執行結果,并淺談涉及知識點。
關鍵字: torch.nn常用網絡層Conv2d、Linear和MaxPool2d詳解,torch.nn網絡訓練相關函數optimizer.zero_grad()、loss.backward()、optimizer.step()詳解, opencv、matplotlib、pillow和pytorch讀取數據的通道順序。

1 我的環境

  • 電腦系統:Windows 11
  • 語言環境:python 3.8.6
  • 編譯器:pycharm2020.2.3
  • 深度學習環境:
    torch == 1.9.1+cu111
    torchvision == 0.10.1+cu111
  • 顯卡:NVIDIA GeForce RTX 4070

2 代碼實現與執行結果

2.1 前期準備

2.1.1 引入庫

import torch
import torch.nn as nn
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif'] = ['SimHei']  # 用來正常顯示中文標簽
plt.rcParams['axes.unicode_minus'] = False  # 用來正常顯示負號
plt.rcParams['figure.dpi'] = 100  # 分辨率
import torchvision
import numpy as np
from torchinfo import summary
import torch.nn.functional as F
import warningswarnings.filterwarnings('ignore')  # 忽略一些warning內容,無需打印

2.1.2 設置GPU(如果設備上支持GPU就使用GPU,否則使用CPU)

"""前期準備-設置GPU-"""
# 如果設備上支持GPU就使用GPU,否則使用CPU
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
print(device)

輸出

cuda

2.1.3 導入數據

'''前期工作-導入數據'''
train_ds = torchvision.datasets.CIFAR10('data',train=True,transform=torchvision.transforms.ToTensor(), # 將數據類型轉化為Tensordownload=True)test_ds  = torchvision.datasets.CIFAR10('data',train=False,transform=torchvision.transforms.ToTensor(), # 將數據類型轉化為Tensordownload=True)
batch_size = 32train_dl = torch.utils.data.DataLoader(train_ds, batch_size=batch_size, shuffle=True)test_dl  = torch.utils.data.DataLoader(test_ds, batch_size=batch_size)

2.1.4 查看數據

'''前期工作-查看數據'''                                       
# 取一個批次查看數據格式
# 數據的shape為:[batch_size, channel, height, weight]
# 其中batch_size為自己設定,channel,height和weight分別是圖片的通道數,高度和寬度。
imgs, labels = next(iter(train_dl))  # 通過 iter(train_dl) 創建一個數據迭代器,然后使用 next(train_dl) 從訓練數據加載一個批次的圖像和對應的標簽。
# images包含了一批圖像,labels 包含了這些圖像的類別標簽。
print(imgs.shape)

輸出

torch.Size([32, 1, 28, 28])

2.1.5.數據可視化

'''前期工作-數據可視化'''
# 指定圖片大小,圖像大小為20寬、5高的繪圖(單位為英寸inch)
plt.figure(figsize=(20, 5))
for i, img in enumerate(imgs[:20]):npimg = img.numpy().transpose((1, 2, 0))# 轉換圖像的數組格式 : transpose (C, H, W) -> (H, W, C)# 將整個figure分成2行10列,繪制第i+1個子圖。plt.subplot(2, 10, i + 1)plt.imshow(npimg)plt.axis('off')plt.show()  #如果你使用的是Pycharm編譯器,請加上這行代碼

在這里插入圖片描述

2.2 構建CNN網絡模型

在這里插入圖片描述

"""構建CNN網絡"""num_classes = 10  # 圖片的類別數class Model(nn.Module):def __init__(self):super().__init__()# 特征提取網絡self.conv1 = nn.Conv2d(3, 64, kernel_size=3)  # 第一層卷積,卷積核大小為3*3self.pool1 = nn.MaxPool2d(kernel_size=2)  # 設置池化層,池化核大小為2*2self.conv2 = nn.Conv2d(64, 64, kernel_size=3)  # 第二層卷積,卷積核大小為3*3self.pool2 = nn.MaxPool2d(kernel_size=2)self.conv3 = nn.Conv2d(64, 128, kernel_size=3)  # 第二層卷積,卷積核大小為3*3self.pool3 = nn.MaxPool2d(kernel_size=2)# 分類網絡self.fc1 = nn.Linear(512, 256)self.fc2 = nn.Linear(256, num_classes)# 前向傳播def forward(self, x):x = self.pool1(F.relu(self.conv1(x)))x = self.pool2(F.relu(self.conv2(x)))x = self.pool3(F.relu(self.conv3(x)))x = torch.flatten(x, start_dim=1)x = F.relu(self.fc1(x))x = self.fc2(x)return x# 將模型轉移到GPU中(我們模型運行均在GPU中進行)
model = Model().to(device)
summary(model)

輸出

=================================================================
Layer (type:depth-idx)                   Param #
=================================================================
Model                                    --
├─Conv2d: 1-1                            1,792
├─MaxPool2d: 1-2                         --
├─Conv2d: 1-3                            36,928
├─MaxPool2d: 1-4                         --
├─Conv2d: 1-5                            73,856
├─MaxPool2d: 1-6                         --
├─Linear: 1-7                            131,328
├─Linear: 1-8                            2,570
=================================================================
Total params: 246,474
Trainable params: 246,474
Non-trainable params: 0
=================================================================

2.3 訓練模型

2.3.1 訓練模型

"""訓練模型--設置超參數"""
loss_fn = nn.CrossEntropyLoss()  # 創建損失函數,計算實際輸出和真實相差多少,交叉熵損失函數,事實上,它就是做圖片分類任務時常用的損失函數
learn_rate = 1e-2  # 學習率
opt = torch.optim.SGD(model.parameters(), lr=learn_rate)  # 作用是定義優化器,用來訓練時候優化模型參數;其中,SGD表示隨機梯度下降,用于控制實際輸出y與真實y之間的相差有多大

2.3.2 編寫訓練函數

"""訓練模型--編寫訓練函數"""
# 訓練循環
def train(dataloader, model, loss_fn, optimizer):size = len(dataloader.dataset)  # 訓練集的大小,一共60000張圖片num_batches = len(dataloader)  # 批次數目,1875(60000/32)train_loss, train_acc = 0, 0  # 初始化訓練損失和正確率for X, y in dataloader:  # 加載數據加載器,得到里面的 X(圖片數據)和 y(真實標簽)X, y = X.to(device), y.to(device) # 用于將數據存到顯卡# 計算預測誤差pred = model(X)  # 網絡輸出loss = loss_fn(pred, y)  # 計算網絡輸出和真實值之間的差距,targets為真實值,計算二者差值即為損失# 反向傳播optimizer.zero_grad()  # 清空過往梯度loss.backward()  # 反向傳播,計算當前梯度optimizer.step()  # 根據梯度更新網絡參數# 記錄acc與losstrain_acc += (pred.argmax(1) == y).type(torch.float).sum().item()train_loss += loss.item()train_acc /= sizetrain_loss /= num_batchesreturn train_acc, train_loss

2.3.3 編寫測試函數

"""訓練模型--編寫測試函數"""
# 測試函數和訓練函數大致相同,但是由于不進行梯度下降對網絡權重進行更新,所以不需要傳入優化器
def test(dataloader, model, loss_fn):size = len(dataloader.dataset)  # 測試集的大小,一共10000張圖片num_batches = len(dataloader)  # 批次數目,313(10000/32=312.5,向上取整)test_loss, test_acc = 0, 0# 當不進行訓練時,停止梯度更新,節省計算內存消耗with torch.no_grad(): # 測試時模型參數不用更新,所以 no_grad,整個模型參數正向推就ok,不反向更新參數for imgs, target in dataloader:imgs, target = imgs.to(device), target.to(device)# 計算losstarget_pred = model(imgs)loss = loss_fn(target_pred, target)test_loss += loss.item()test_acc += (target_pred.argmax(1) == target).type(torch.float).sum().item()#統計預測正確的個數test_acc /= sizetest_loss /= num_batchesreturn test_acc, test_loss

2.3.4 正式訓練

"""訓練模型--正式訓練"""
epochs = 10
train_loss = []
train_acc = []
test_loss = []
test_acc = []for epoch in range(epochs):model.train()epoch_train_acc, epoch_train_loss = train(train_dl, model, loss_fn, opt)model.eval()epoch_test_acc, epoch_test_loss = test(test_dl, model, loss_fn)train_acc.append(epoch_train_acc)train_loss.append(epoch_train_loss)test_acc.append(epoch_test_acc)test_loss.append(epoch_test_loss)template = ('Epoch:{:2d}, Train_acc:{:.1f}%, Train_loss:{:.3f}, Test_acc:{:.1f}%,Test_loss:{:.3f}')print(template.format(epoch + 1, epoch_train_acc * 100, epoch_train_loss, epoch_test_acc * 100, epoch_test_loss))
print('Done')

輸出

Epoch: 1, Train_acc:13.6%, Train_loss:2.263, Test_acc:22.1%,Test_loss:2.085
Epoch: 2, Train_acc:25.5%, Train_loss:2.003, Test_acc:29.4%,Test_loss:1.921
Epoch: 3, Train_acc:33.6%, Train_loss:1.808, Test_acc:32.6%,Test_loss:1.931
Epoch: 4, Train_acc:40.4%, Train_loss:1.630, Test_acc:41.6%,Test_loss:1.627
Epoch: 5, Train_acc:44.5%, Train_loss:1.527, Test_acc:45.4%,Test_loss:1.540
Epoch: 6, Train_acc:47.9%, Train_loss:1.441, Test_acc:49.7%,Test_loss:1.384
Epoch: 7, Train_acc:51.2%, Train_loss:1.355, Test_acc:51.3%,Test_loss:1.357
Epoch: 8, Train_acc:54.2%, Train_loss:1.283, Test_acc:53.7%,Test_loss:1.291
Epoch: 9, Train_acc:57.0%, Train_loss:1.212, Test_acc:57.4%,Test_loss:1.202
Epoch:10, Train_acc:59.0%, Train_loss:1.159, Test_acc:55.5%,Test_loss:1.251
Done

2.4 結果可視化

"""訓練模型--結果可視化"""
epochs_range = range(epochs)plt.figure(figsize=(12, 3))
plt.subplot(1, 2, 1)plt.plot(epochs_range, train_acc, label='Training Accuracy')
plt.plot(epochs_range, test_acc, label='Test Accuracy')
plt.legend(loc='lower right')
plt.title('Training and Validation Accuracy')plt.subplot(1, 2, 2)
plt.plot(epochs_range, train_loss, label='Training Loss')
plt.plot(epochs_range, test_loss, label='Test Loss')
plt.legend(loc='upper right')
plt.title('Training and Validation Loss')
plt.show()

在這里插入圖片描述

3 知識點詳解

3.1 torch.nn常用網絡層Conv2d、Linear和MaxPool2d詳解

3.1.1 torch.nn.Conv2d()詳解

函數原型:
torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode=‘zeros’, device=None, dtype=None)
關鍵參數說明:
in_channels ( int ) – 輸入圖像中的通道數
out_channels ( int ) – 卷積產生的通道數
kernel_size ( int or tuple ) – 卷積核的大小
stride ( int or tuple , optional ) – 卷積的步幅。默認值:1
padding ( int , tuple或str , optional ) – 添加到輸入的所有四個邊的填充。默認值:0
dilation (int or tuple, optional) - 擴張操作:控制kernel點(卷積核點)的間距,默認值:1。
padding_mode (字符串,可選) – ‘zeros’, ‘reflect’, ‘replicate’或’circular’. 默認:‘zeros’
關于dilation參數圖解:
在這里插入圖片描述

3.1.2 torch.nn.Linear()詳解

函數原型:
torch.nn.Linear(in_features, out_features, bias=True, device=None, dtype=None)
關鍵參數說明:
in_features:每個輸入樣本的大小
out_features:每個輸出樣本的大小

3.1.3 torch.nn.MaxPool2d()詳解

函數原型:
torch.nn.MaxPool2d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)
關鍵參數說明:
kernel_size:最大的窗口大小
stride:窗口的步幅,默認值為kernel_size
padding:填充值,默認為0
dilation:控制窗口中元素步幅的參數

3.1.4. 關于卷積層、池化層的計算:

下面的網絡數據shape變化過程為:
3, 32, 32(輸入數據)
-> 64, 30, 30(經過卷積層1)-> 64, 15, 15(經過池化層1)
-> 64, 13, 13(經過卷積層2)-> 64, 6, 6(經過池化層2)
-> 128, 4, 4(經過卷積層3) -> 128, 2, 2(經過池化層3)
-> 512 -> 256 -> num_classes(10)
參看文章深度學習CNN網絡–卷積層、池化層、全連接層詳解與其參數量計算可手動推導這個過程。
網絡結構圖(可單擊放大查看):
在這里插入圖片描述

3.2. torch.nn網絡訓練相關函數optimizer.zero_grad()、loss.backward()、optimizer.step()詳解

3.2.1 optimizer.zero_grad()

函數會遍歷模型的所有參數,通過內置方法截斷反向傳播的梯度流,再將每個參數的梯度值設為0,即上一次的梯度記錄被清空。

3.2.2 loss.backward()

PyTorch的反向傳播(即tensor.backward())是通過autograd包來實現的,autograd包會根據tensor進行過的數學運算來自動計算其對應的梯度。

具體來說,torch.tensor是autograd包的基礎類,如果你設置tensor的requires_grads為True,就會開始跟蹤這個tensor上面的所有運算,如果你做完運算后使用tensor.backward(),所有的梯度就會自動運算,tensor的梯度將會累加到它的.grad屬性里面去。

更具體地說,損失函數loss是由模型的所有權重w經過一系列運算得到的,若某個w的requires_grads為True,則w的所有上層參數(后面層的權重w)的.grad_fn屬性中就保存了對應的運算,然后在使用loss.backward()后,會一層層的反向傳播計算每個w的梯度值,并保存到該w的.grad屬性中。

如果沒有進行tensor.backward()的話,梯度值將會是None,因此loss.backward()要寫在optimizer.step()之前。

3.2.3 optimizer.step()

step()函數的作用是執行一次優化步驟,通過梯度下降法來更新參數的值。因為梯度下降是基于梯度的,所以在執行optimizer.step()函數前應先執行loss.backward()函數來計算梯度。

注意:optimizer只負責通過梯度下降進行優化,而不負責產生梯度,梯度是tensor.backward()方法產生的。

3.3 opencv、matplotlib、pillow和pytorch讀取數據的通道順序

  • opencv(imread,imshow):uint8的ndarray數據,通道順序hwc,顏色通道BGR。
  • matplotlib(imread,imshow):uint8的ndarray數據,通道順序hwc,顏色通道RGB。
  • pillow(open,show):自己的數據結構。可以np.array(image)轉換成numpy數組:uint8的ndarray數據,通道順序hwc,顏色通道RGB。可以Image.fromarray(image)將numpy數組類型轉化為pillow類型。
  • pythorch(torchvision.datasets、torch.utils.data.DataLoader及torchvision.io.read_image):ToTensor()到[0, 1]的torch數據,通道順序nchw,顏色通道RGB,查看圖片方法及ToPILImage。

總結:除了pytorch得到的是nchw圖片,其余方法得到的都是hwc圖片;除了cv2得到的c是bgr圖片,其余方法得到的c都是rgb圖片;plt.imshow()既可以顯示(H,W)灰色圖片,也可以顯示(H,W,C=3)的numpy或torch類型的RGB圖片,但nhwc某批次里的圖片只能一張一張顯示.

總結

通過本文的學習,對torch.nn常用網絡層Conv2d、Linear和MaxPool2d有了更深的了解。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/215418.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/215418.shtml
英文地址,請注明出處:http://en.pswp.cn/news/215418.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

在Go中定義方法

引言 函數允許你將邏輯組織到可重復的過程中,每次運行時可以使用不同的參數。在定義函數的過程中,你會經常發現多個函數可能每次都操作同一段數據。Go可以識別這種模式,并允許您定義特殊的函數,稱為方法,其目的是對某些特定類型的實例進行操作,稱為接收器。為類型添加方…

nodejs微信小程序+python+PHP基于spark的酒店管理系統-計算機畢業設計推薦

目 錄 摘 要 I ABSTRACT II 目 錄 II 第1章 緒論 1 1.1背景及意義 1 1.2 國內外研究概況 1 1.3 研究的內容 1 第2章 相關技術 3 2.1 nodejs簡介 4 2.2 express框架介紹 6 2.4 MySQL數據庫 4 第3章 系統分析 5 3.1 需求分析 5 3.2 系統可行性分析 5 3.2.1技術可行性:…

排序算法——歸并排序

歸并排序(Merge Sort)是計算機科學中非常重要的排序算法之一。它不僅高效、穩定,而且是許多高級排序技術和算法思想的基礎。在本文中,我們將深入探討歸并排序的原理、實現方法,以及它的優缺點。 1. 歸并排序的原理 歸…

Python大模型TensorFlow/PyTorch/Scikit-learn/Keras/OpenCV/Gensim

Python 作為一種高級編程語言,可以用于開發各種大小的模型。以下是一些常見的 Python 大模型,以及它們的優勢、劣勢和使用場景: TensorFlow: 優勢:TensorFlow 是一個非常流行的深度學習庫,具有高度的可擴…

階段五:深度學習和人工智能(掌握使用TensorFlow或PyTorch進行深度學習)

掌握使用TensorFlow或PyTorch進行深度學習需要具備一定的編程基礎和數學基礎,包括編程語言、數據結構、算法、線性代數、概率論和統計學等方面的知識。以下是掌握使用TensorFlow或PyTorch進行深度學習的一些基本要求: 了解深度學習的基本概念和原理&…

目標檢測YOLO系列從入門到精通技術詳解100篇-【目標檢測】計算機視覺(基礎篇)

目錄 前言 幾個高頻面試題目 計算機視覺中常見的錯誤及解決方案 1.翻轉圖像和關鍵點

AnotherRedisDesktopManager安裝使用 (redis可視化客戶端)

下載 下載地址 AnotherRedisDesktopManager 發行版 - Gitee.com 安裝 雙擊安裝 修改安裝路徑 運行

pt36項目短信OAth2.0

5、短信驗證碼 1、注冊容聯云賬號,登錄并查看開發文檔(以下分析來自接口文檔) 2、開發文檔【準備1】:請求URL地址1.示例:https://app.cloopen.com:8883/2013-12-26/Accounts/{}/SMS/TemplateSMS?sig{}ACCOUNT SID# s…

Docker安裝與使用

Docker 1.初識Docker Docker如何解決大型項目依賴關系復雜,不同組件依賴的兼容性問題? Docker允許開發中將應用、依賴、函數庫、配置一起打包,形成可移植鏡像Docker應用運行在容器中,使用沙箱機制,相互隔離 Docker…

phpstorm中使用 phpunit 時的配置和代碼覆蓋率測試注意點

初始化一個composer項目,composer.json配置文件如下 {"name": "zingfront/questions-php","type": "project","require": {"php": "^7.4"},"require-dev": {"phpunit/phpun…

geemap學習筆記024:從Earth Engine中獲取遙感圖像的縮略圖

前言 遙感圖像的縮略圖通常是以較小的數據量對整景影像有一個全面的展示,便于分享和觀察,本節就介紹一下如何獲取遙感圖像的縮略圖。 1 導入庫并顯示地圖 import ee import geemap import osee.Initialize() Map geemap.Map() Map2 加載數據 roi e…

多維時序 | MATLAB實現RIME-CNN-BiLSTM-Multihead-Attention多頭注意力機制多變量時間序列預測

多維時序 | MATLAB實現RIME-CNN-BiLSTM-Multihead-Attention多頭注意力機制多變量時間序列預測 目錄 多維時序 | MATLAB實現RIME-CNN-BiLSTM-Multihead-Attention多頭注意力機制多變量時間序列預測預測效果基本介紹模型描述程序設計參考資料 預測效果 基本介紹 MATLAB實現RIME-…

項目管理工具:選品開發管理的最佳實踐

Zoho Projects是一個功能強大的項目管理工具,可以幫助電商企業實現選品開發過程的有序管理,提升選品開發效率。 以下是使用Zoho Projects進行選品開發管理的步驟: 1.創建項目: 登錄Zoho Projects,在主頁上點擊"新…

NSSCTF Crypto靶場練習,21-30wp

文章目錄 [AFCTF 2018]你能看出這是什么加密么[LitCTF 2023]你是我的關鍵詞(Keyworld)[NSSCTF 2022 Spring Recruit]classic[SWPUCTF 2021 新生賽]crypto4[LitCTF 2023]家人們!誰懂啊,RSA簽到都不會 (初級)[SWPUCTF 2021 新生賽]crypto5[LitCTF 2023]Is …

亞信科技AntDB攜手藍凌軟件,助推企業數字化辦公轉型升級

隨著企業數字化轉型的深入,企業對于協同辦公、移動門戶、數字運營、智能客服等方面的需求越來越高,數智化正成為催生新動能和新優勢的關鍵力量。數字化的辦公平臺可以幫助企業實現各類信息、流程的集中化、數字化和智能化管理,為企業管理者提…

面試 JVM 八股文五問五答第一期

面試 JVM 八股文五問五答第一期 作者:程序員小白條,個人博客 相信看了本文后,對你的面試是有一定幫助的! ?點贊?收藏?不迷路!? 1.JVM內存布局 Heap (堆區) 堆是 OOM 故障最主要的發生區域。它是內存…

大數據畢業設計之前端03:logo、menu的折疊展開實現

關鍵字:BuildAdmin、pinia、logo、aside、menu、菜單折疊、Vue、ElementUI 前言 上一篇文章中,借助aside的實現講了一些開發的小技巧,以及css的解讀。本篇文章主要寫一下如何填充aside的內容。 aside主要是由兩個部分組成的:log…

數據結構與算法-Rust 版讀書筆記-2線性數據結構-棧

數據結構與算法-Rust 版讀書筆記-2線性數據結構-棧 一、線性數據結構概念 數組、棧、隊列、雙端隊列、鏈表這類數據結構都是保存數據的容器,數據項之間的順序由添加或刪除時的順序決定,數據項一旦被添加,其相對于前后元素就會一直保持位置不…

電腦入門基礎知識

1.電腦鍵盤個數一般都是有多少個? 答:一般情況下,電腦鍵盤只有一個。但是,也有一些特殊的情況,例如游戲玩家可能會使用額外的游戲鍵盤,或者一些專業人士可能會使用多個鍵盤來提高工作效率。但是在大多數情…

[Spring~源碼] ControllerAdvice揭秘

在Spring MVC中,我們經常使用ControllerAdvice注解,可以實現全局統一異常處理、全局數據綁定等功能。但是,它的實現原理是什么呢?在本文中,我們將深入探究ControllerAdvice的實現原理。 文章目錄 什么是ControllerAdvi…