通常來說,相機內部的CCD或者CMOS傳感器上都有感光陣列,由一個一個的感光元件構成,每一個感光元件負責完成光電轉換的過程。簡單理解,一個感光元件可以認為就是一個像素(pixel)或像元(pel)。像元具有一定尺寸,如果像的尺寸大于像元的尺寸,那么一個像元就無法表示整個像,因此一個像元的尺寸和物鏡的放大倍數,決定了對物體的分辨能力。例如一個1um1um1um長度的物體,經物鏡放大10倍以后,其像的長度為10um10um10um,如果像元尺寸是5um5um5um,那么需要2個像元才能完整表示整個像,因此一個像元表示0.5um0.5um0.5um的物體。如果像元尺寸足夠小,例如1um1um1um,那么需要10個像元才能完整表示整個像,因此一個像元表示0.1um0.1um0.1um的物體。可以看出,像元尺寸越小,其所能表示的物體尺寸越小,即像元越小,其對物體的分辨能力越高或者說獲取物體的細節就越多。
像元尺寸也并非越小越好,從上面的結論可以看出,更小尺寸的像元需要更多數量的像元才能表示一個完整的像。這意味著對于同一個物體,同一像元尺寸的相機,物鏡放大倍數增加,那么完整表示一個像所需要的像元數量也會相應的增加,而傳感器上的像元數量是有限的,因此像元的尺寸實際從側面限制了物鏡的放大倍數。換句話說,在相機選型的時候就必須保證像元的尺寸至少能匹配物鏡的放大倍數。
根據瑞利判別準則,顯微物鏡的光學分辨率僅與光波長及物鏡的數值孔徑有關(詳見 https://blog.nas-kk.top/?p=112 ),因此物鏡放大倍數與分辨率沒有關系。換言之對于NA1.0的物鏡,放大倍數是100x,還是60x對分辨率沒有任何影響。但是放大倍數越小,視場角越大,這就意味著可以觀測更大的區域(詳見 https://blog.nas-kk.top/?p=129 )。
像元進行光電轉換的過程實際是對連續光信號的離散采樣過程,那么其采樣過程大致如下圖所示,該圖假設發生衍射的光源之間的距離足夠遠,且只選取了艾里斑和第一暗環。
根據上面的圖示可以很容易理解像元離散采樣的過程,如果想要根據離散的信號恢復出連續信號,則必須滿足奈奎斯特采樣定理,因此必須采用至少兩個像元去采集像的信息。同時,瑞利判別準則也指出如果要辨別兩個光源的像,那么這兩個光源的間距至少滿足 0.61λ/NA0.61\lambda/NA0.61λ/NA ,那么相機與物鏡之間則必須滿足:
Pixelsize=(0.61λNA×M)/2Pixel_{size} = (\frac{0.61\lambda}{NA} \times M)/2 Pixelsize?=(NA0.61λ?×M)/2
其中,λ\lambdaλ 表示光波長,NANANA 表示物鏡的數值孔徑,MMM 表示物鏡的放大倍數,PixelsizePixel_{size}Pixelsize? 表示像元大小。當像元尺寸滿足要求時,只要 Dimage>(0.61λ/NA)×MD_{image} > (0.61\lambda/NA) \times MDimage?>(0.61λ/NA)×M 即可保證能夠正確還原信號。
相機的分辨率主要與感光陣列中的垂直和水平方向上的像元個數有關,而相機輸出的圖像大小(或者圖像分辨率)則與相機分辨率、相機工作的模式、采集卡、ROI設置、Offset設置、像素插值等多個因素有關。例如一個感光陣列水平方向有1000個像元,垂直方向有1000個像元,那么相機的分辨則是1000×10001000 \times 10001000×1000,那么在這種配置下,如果相機工作在TDI線陣方式,那么理論上其輸出的圖像在掃描方向上可以無限大;如果相機工作在面陣方式,通過像素插值,其輸出的圖像大小則可能可以達到3000×30003000 \times 30003000×3000,隨著面陣圖像大小的增大,其等價于像元個數增多;對于固定尺寸的傳感器(像元大小和像元個數共同決定了傳感器的尺寸),這類似于像元尺寸縮小,但是與像元尺寸縮小有本質的區別,圖像質量也較差。