Video card,Graphics card,又叫顯示接口卡,是一個硬件概念(相似的還有網卡),執行計算機到顯示設備的數模信號轉換任務,安裝在計算機的主板上,將計算機的數字信號轉換成模擬信號讓顯示器顯示出來。
顯卡是計算機的標配之一,計算機要顯示圖像就必須安裝顯卡。普通計算機的顯卡一般是集成在主板上的。
顯卡驅動
顯卡驅動是顯卡跟計算機連接的橋梁,可以讓計算機識別到GPU硬件,是必須正確安裝的,不同廠商、不同型號的GPU對應不同的顯卡驅動。
非開發人員不用安裝CUDA或cuDNN,但是一定要安裝顯卡驅動。
查看Nvidia顯卡和顯卡驅動版本信息:
nvidia-smi
顯存
又叫幀緩存,作用是用來存儲GPU處理過或者即將提取的渲染數據,顯存相對于GPU相當于內存對于CPU。
GPU
Graphics Processing Unit,圖形處理單元,GPU是顯卡上的一塊芯片,也是顯卡的核心設備,GPU和顯卡的關系類似于CPU和主板的關系。
早期的GPU主要用于圖形渲染,可以讓電腦顯示更加逼真、細節更加豐富的圖形圖像,牛逼的GPU可以跑大型3D游戲顯示流暢不卡頓,這也是人們對GPU或顯卡的最初認識。
后來人們發現GPU還可以做更多的工作,例如執行矩陣運算和浮點運算,特別是可以用來加速神經網絡模型的訓練,GPU也在并行計算這條路上越走越遠。可以說GPU讓人工智能有了更多可能。
CUDA
Compute Unified Device Architecture,CUDA是NVIDIA推出的用于NVIDIA GPU的并行計算框架,是一種運算平臺,是軟件層面的概念,相關的概念還有OpenCL、OpenMP等。
GPU的設計是用來做圖像渲染任務的,如果沒有CUDA,開發人員就要先把計算任務打包成圖形渲染任務再讓GPU執行,開發難度很高。可以認為CUDA完成了這個打包任務,只需要通過CUDA提供的API,把數據和運算規則交給CUDA,讓CUDA和GPU交互,再返回運算結果。
查看CUDA版本信息:
nvcc -V
cuDNN
CUDA Deep Neural Network library,是NVIDIA打造的針對深度神經網絡的加速庫,是一個用于深層神經網絡的GPU加速庫。cuDNN可以把加載到GPU上的網絡層數據根據神經網絡數據運算的特點(如卷積操作、前后向運算流、pooling、softmax、激活函數等)進行優化,加速模型訓練。
幾乎所有的深度學習框架都支持cuDNN加速優化,如Caffe、Caffe2、TensorFlow、Torch、Pytorch、Theano等。