相關文章

454d89861eb50c71e1e4034c2fafa9bb (註:本文為2009/8/23首次刊出)【編按】為什麼數位相機的感光元件愈大愈好?在鳥大師的前兩篇文章中,我們看到感光元件的基本運作原理;在本篇中,我們將會看到在現實世界中影響畫面品質的諸多因素,以及為什麼感光元件的尺寸,真的是愈大愈好。沒看過前兩篇的同學,請先到上篇中篇補修學分。

光電二極體

不管是 CCD 還是 CMOS影像感測器,它們上面的光電二極體其實是一樣的東西。光電二極體是一個用半導體製程做在晶片上的二極體,它有個 PN 接面,所謂PN接面就是P型半導體和N型半導體的接合面。當光照射在PN接面上時,因為前述的光電效應,會在接面附近打出一個可以自由移動的電子。至於這個電子所空下來的座位,我們稱之為電洞。

如果我們能有個辦法來累積這些被光所打出來的電子,就可以測量入射光的強度。至於如何用光電二極體來累積這些電子呢?實務上的做法是:讓光電二極體變成一個電容器。

因為某些很難三言兩語就交代完的理由,擁有PN接面的二極體在被施加逆向偏壓時,會變得像個電容器。所謂逆向偏壓,就是我們對二極體施加一個電壓,而這個電壓的方向是讓二極體不會導通的方向,也就是對半導體的負極(電路圖上三角型尖尖的那頭)加以比正極高的電壓。施加逆偏壓後,會有一些電荷因為二極體變成電容器的關係,而被保存在PN接面附近,即使把偏壓移除後亦然。以上這個動作,稱之為光電二極體的reset。

光電二極體被reset後,因為電荷保留在上面,所以會有個電壓。此時,如果光電二極體的PN接面受到光線照射,就會開始產生因光電效應而來的電子。這些產生出來的電子,會漸漸中和掉reset時被保留在PN接面附近的電子,因此光電二極體上的電壓就會隨著光線照射而下降。光線越強,下降得越快,照得越久,下降得越多。正因如此,我們可以利用這個原理,把光電二極體做成相機中的感光元件。

CCD03
▲各種感光元件的大小比例。

雜訊,雜訊,雜訊

在這整個系統中有一個很重要的關鍵,就是當光電二極體被reset時,那個電容器的大小。這個電容器的大小,決定了能有多少電荷被保留在PN接面附近,等著被光子打出來的電子給中和掉,或者,換個角度來想,這個光電二極體能夠感應多少被光子打出來的電子。

如果這個容量很小,那麼當入射光線很強時,沒多久電荷就被打光光了,用專用的術語來說,叫做光電二極體「飽和」了。飽和就是光電二極體能感應的最大亮度,像是天空中的白雲啊,黃昏的夕陽啊這種很亮很亮的景物,都可以很輕易地讓光電二極體飽和。

世界有光亮就有黑暗,光亮會讓光電二極體飽和,那黑暗呢?照講在黑暗中,如果沒有光線,就沒光電效應,也就沒有電子會被打出來。不過,這是個充滿活力的世界,物理學家告訴我們,其實並不是所有的電子都那麼安份,總是有一些天生比較熱情外向的電子,在還沒被光子擊中前就有本事自己跳出來。而且,這種狂熱份子的比例,會隨著溫度的增加而越來越多,也就是說,溫度越高,會有越來越多的電子不待光子的激發,就變成光電二極體的訊號,或者說,雜訊。這是個現實的世界,雖然它們都是一樣的電子,但我們要的部份,就稱之為訊號,而不要的部份,就是雜訊。

這種雜訊只有在溫度降到絕對零度時才會消失,因此稱之為熱雜訊。而且因為它的出現與入射光無關,就算在黑暗中也會發生,因此它對影像感測器所造成的影響主要是暗電流的增加,也就是在黑暗中仍會造成影像讀數。雖然暗電流的成因還有其它的因素,但熱雜訊是主要的凶手。

不管用什麼樣的影像感測器,數位相機的雜訊表現都會受到溫度的影響,溫度越高雜訊越大。因此同樣的相機,在氣溫40度的夜晚所拍出來的非洲夜空,照片中的雜訊一定會比在零下二十度的阿拉斯加拍出來的星空要大。

除了熱雜訊外,在影像感測器中另一個雜訊的大宗來源是讀取雜訊。所謂讀取雜訊,就是每次從像素中將電荷讀出時,所引入的不確定性,它的單位是電子的數量。如果一個像素的讀取雜訊是 30 顆電子,代表我在從這個像素中讀出一個強度為1000顆電子的訊號時,有可能讀到1030,也有可能讀到970,而且可能每次都不一樣。

當然,除了讀取雜訊和熱雜訊外,在影像感測器中還有各式各樣的的雜訊來源,像是reset雜訊(這個也和溫度有關),光子照射隨機雜訊(和入射光強度有關),以及後段電路像CMOS感測器的像素放大器或列放大器另外引入的電路雜訊等。

雖然有著這麼多的雜訊,讓影像感測器的設計和製造變成一門高深的學問,但重點是,以上大部份的雜訊,都與像素的電荷容量無關,甚至某些雜訊還與像素的電荷量呈負相關。看出這其中的玄機了嗎?如果像素的電荷容量比較大,雖然雜訊的強度不變,但相對來講,雜訊佔有整個訊號的比例就降低了,因而我們可以得到更好的影像品質。

CCD04
▲像素容量和雜訊。

動態範圍

除了雜訊外,另一個與像素大小有關的參數就是動態範圍。動態範圍決定了一台相機所能拍攝的影像中,最亮的部份和最暗的部份能有多大的差距。假設我們有個要拍攝的場景,是在夏日午後的太陽下,畫面中有藍天白雲,還有個美女站在樹蔭下。藍天白雲是畫面中很亮的部份,而樹蔭下的美女則是比較暗的部份。這最亮和最暗的亮度差距,實務上來說可以到數千倍以上。如果相機的動態範圍不足,當我們希望藍天白雲的曝光正確時,美女的臉蛋就會曝光不足,拍攝美女臉蛋部份的像素可能都只有接近全黑的讀數。

換個方法來做,如果我們希望拍攝美女臉蛋的像素要有有效的讀數,讓我們看得到她的五官,就得把曝光往上調整,但這麼一來拍攝藍天白雲的像素統統都會被過量的光子給轟到飽和,而變成白花花的一片,什麼都看不出來。

這其中的關鍵,就是光電二極體那個電容器的大小,它有個專有名詞叫做「full well capacity」。FWC的單位是電子,它代表著這個像素的光電二極體最多能儲存多少經由光電效應打出來的電子,再多它也存不下來,只能丟掉,而且萬一丟得不好還會不小心漏到旁邊的像素去,造成影像品質的劣化。FWC幾乎完全取決於光電二極體的面積大小,也就是說,像素越大,FWC就越大。

通常來說,像素在影像暗部的讀數受限於前面提過的讀取雜訊和熱雜訊,低於讀取雜訊的訊號量無法產生有效的讀數,因此通常在計算動態範圍時,我們會以讀取雜訊當做最低的訊號位準。而要特別強調的是,讀取雜訊雖然會隨著像素尺寸的增加而略為增大,但並不像FWC一樣和像素尺寸成正比。

CCD05
▲像素大小與FWC

表二比較了兩台年代差距不遠的數位相機,可以看出像素的大小決定FWC的大小,但讀取雜訊的差異卻沒有FWC的差異那麼大,因此兩者換算出來的動態範圍有很大的差距。

大小仍是決勝的關鍵

說了這麼多,其實結論還是只有一個:像素的尺寸決定影像的品質。而在同樣的解析度下,越大尺寸的感測器能擁有越大的像素。這就是為什麼同樣是一千多萬像素的機器,E-P1拍出來的影像品質大勝所有的高階隨身機,因為它擁有這個體積的機種中,最大的像素尺寸,4.3um。

難道影像品質要好,只要努力把像素尺寸做大就可以達成嗎?理論上來說沒錯,而實務上也有很多遙測用的影像感測器或是軍事用途的影像感測器,為了達到極高的動態範圍和及大的訊號/雜訊比,而實作出非常巨大的像素。有多大呢?EOS 5D 的像素大小是 8.2um,而這種特殊用途的感測器,像素大小往往是數十um起跳的,甚至還有上百um的。

如果像素要大,解析度又要高,那整塊感測器就會變得非常巨大,而這會讓用來製作感測器的半導體工廠非常頭痛。以一片八吋的晶圓來說,如果拿來做1/1.8吋的感測器,大概可以塞進七八百個。而拿來做APS-C感測器的話,也可以切出200片左右。但如果拿來做135全幅的感測器,能做幾片呢?20片。

因此除非有特殊的需求,或是追求高畫質的表現,否則數位相機的發展都朝著小尺寸高密度的影像感測器走。但隨著畫素數越來越高,像素的尺寸也越來越小。以現在主流的高階消費型數位相機來說,千萬畫素以上的機種,像素尺寸普遍都小於 1.7um,雖然原廠不會公布它的FWC數值,但合理的推算大概都不會超過4000顆電子,這對動態範圍是相當嚴苛的限制,也因此現在許多新的數位相機才會開始有那種利用多成曝光合成而達到高動態範圍的WDR模式,因為光靠感測器本身的動態範圍已經沒辦法拍出令人滿意的影像了。

所以,尺寸重不重要?當然重要啊 !

使用 Facebook 留言

22526eb02b1d74bb1ba9e59e4ae18e7a?size=48&default=wavatar
1.  機戰人 (發表於 2009年8月23日 20:17)
受教了

儘管我沒有在玩相機

不過這個相當進階的知識

也是相當受用啊
9a7e2dd3d0e8c926e68d4851edfcf1be?size=48&default=wavatar
2.  xwaitzdb (發表於 2009年8月23日 23:45)
專業知識連發
都正好騷到我的癢處
希望以後有更多硬知識繼續發表在電腦王上

p.s. 話說以前有篇講遊戲繪圖原理的後續跑哪去了?
31b9d2d8aad8bd640f221ea815ad2442?size=48&default=wavatar
3.  hippo (發表於 2009年8月24日 16:25)
看完後有個小疑問...如果是同一台DC 假設是1/2.3" 10.2M畫素
相機內可設定調整畫素值為9.0M、5.0M、2.0M
那是不是畫素值設的越低越可以減少雜訊?
還是說只是相機去採取對應不同CCD感光面積(各畫素的大小一定維持不變)而已?
C1bb7d08aba821ea196dd4ff21228ab9?size=48&default=wavatar
4.  Bird (發表於 2009年8月25日 00:06)
數位相機設定較低解析度時, 用的是 down-scaling 的做法, 就像是你在 ACDSee 裡用 resize 縮圖一樣. 一般來說, 只要不是爆爛的縮圖演算法, 在做縮圖時都有降雜訊的效果, 相鄰的畫素會被平均. 讀取雜訊是高斯分布, 高斯雜訊平均後強度會減半, 但訊號的強度不變, 因此 S/N 比就會提高一倍.

另外有種做法是, 直接在 sensor 上, 將相鄰的畫素併在一起變成比較大的畫素, 用降低解析度的方法來換取較大面積的畫素. 這個技巧叫 pixel binning, 在CCD 上行之有年, 但在 CMOS 上則是到了 4T/5T 的年代才慢慢開始實作.
00ab6ca3ab367b02bd40e49ab4a0587f?size=48&default=wavatar
5.  JackieChin (發表於 2009年8月25日 08:51)
相機內設定調整畫素值為 9.0M、5.0M、2.0M
對相機來說
應該只是存成不同解析度的圖檔
58c674666503be0e26952fa2fd3ef0d1?size=48&default=wavatar
6.  Vic (發表於 2009年8月25日 11:23)
這篇文章是以影像品質的角度思考感光元件的差異,當然越大越好是沒錯的。
不過實務上一般消費者不會只在意影像品質,因為感光元件越大,那代表相機也會越大、越重,不方便攜帶。最現實的就是可能荷包負擔不起。(沒在玩攝影的人可能無法相信,一般市面上能輕易買到的數位機背,就有破百萬的機種)

除非是特殊目的,不然市面上135全幅(含)以下的感光元件應當還是最適合一般人的。

發表回應

謹慎發言,尊重彼此。按此展開留言規則