相關文章

Baa3f4255bfb4e8f7bd543ae1759ad53 Google 現正在東京舉辦亞太區媒體聚會,邀請了 Google Pixel 相機產品經理  Isaac Reynolds 和媒體分享 Pixel 相機的人像模式運作原理。

在活動的一開始,Google Pixel 相機產品經理 Isaac Reynolds 先分享了他對目前手機市場的看法,Issac 認為,過去兩年手機市場一直在進行軍備競賽,每款手機的規格堆疊再堆疊,衝高規格的結果是,每個人手上似乎都有了最強旗艦機,但手機間的鑑別度卻變得相對低了。不過軍備競賽即將告一段落,下一個手機發展的方向就在機器學習上。

Google Pixel 相機將機器學習運用在人像模式上,目前手機的人像模式指的是創造出淺景深效果來凸顯拍照主體。

什麼是淺景深呢?

相機上的淺景深指的是由於拍攝時景物遠近都不一樣,在某個距離的景物會是清晰的,除此之外的近景或遠景會逐漸模糊,模糊程度(景深的深淺)則是取決於光圈,一如我們所知,光圈越大,景深將會越淺。

我們透過光圈公式可以逆推這項結果。光圈=焦距/孔徑,舉例來說,一顆 50mm 的鏡頭,其光通鏡片孔徑需大於 25mm。因此可獲知光圈越大,鏡頭光通孔徑也會隨之變大。而之所以景深會越淺,這是由於鏡頭鏡片開度越大,模糊圈亦會隨之變大。

手機上的淺景深怎麼來的?

由於手機感光元件較小、實體焦距較短,因此在拍攝遠景時景深較深,難以創造出類似單眼相機的景深效果,因此就得靠其他方式來模擬景深,一般常見的做法是利用放得很近的兩顆鏡頭(也就是所謂的雙鏡頭手機)來計算出拍攝景物的遠近距離,就跟人眼看東西遠近的運作原理一樣。

單鏡頭的 Google Pixel 2 則是將鏡頭分為左半部和右半部,利用左半部相機和右半部相機拍出來的些微遠近距離差異來知道物體間的距離,進而分離出前景和背景創造出淺景深效果。

這樣還不夠,由於一般場景不像拍電影一樣有綠背景可以清楚判斷何處為前景、何處為背景,因此 Google 導入了機器學習來辨識物體,以拍攝人物淺景深為例,經過訓練的機器學習可以知道人像大概在哪個位置,框出人像後在將其他地方加上模糊效果,這就成了手機的人像模式淺景深照片。

常拍照的人應該有注意到,這樣景深模擬的效果雖然還不差,不過跟真正單眼相機利用光學原理拍出來的淺景深照片還是有很大的不同,比方說雖然背景的盆栽和招牌遠近不同,但都被套用統一的模糊效果;另一個可以看出破綻的地方則是最前方的餐盤,如果是用單眼相機拍的話餐盤處應該是模糊的(只有人的地方清晰),不過此圖卻是清晰的。

雖然說和單眼比起來,手機模擬的淺景深效果還不夠細膩,但對於大多數人來說這樣的效果已經足以應用在日常拍照中了。

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則